Empresa de IA afirma ter criado um gerador de texto muito perigoso para ser lançado

Por , em 18.02.2019

Cientistas da organização sem fins lucrativos OpenAI decidiram frear sua pesquisa em um novo software de geração de texto baseado em inteligência artificial, enquanto exploram os danos que a tecnologia poderia causar.

O software é tão bom em prever a próxima palavra em uma frase e imitar a escrita de seres humanos que os pesquisadores temem que seja usado de maneira antiética, por exemplo, para turbinar o lançamento de fake news (notícias falsas).

O medo

Elon Musk já afirmou que a inteligência artificial é a “maior ameaça existencial” para a humanidade.

Musk é um dos financiadores primários do OpenAI e, embora tenha assumido um papel secundário na organização, seus pesquisadores parecem compartilhar suas preocupações sobre a abertura de uma caixa de Pandora.

Esta semana, o OpenAI compartilhou um artigo sobre sua tecnologia de geração de texto, mas não tornaram pública a pesquisa completa, por medo de que ela possa ser abusada.

Ao invés disso, a equipe divulgou um modelo menor para os pesquisadores experimentarem.

Como funciona

Na versão simplificada, os cientistas usaram 40 GB de dados extraídos de 8 milhões de páginas da web para treinar o software GPT-2. Isso é dez vezes a quantidade de dados que eles usaram no primeiro experimento com o GPT.

Quando o processo de treinamento foi concluído, a equipe descobriu que o software poderia ser alimentado com uma pequena quantidade de texto e continuar a escrevê-lo de forma convincente.

O GPT-2 tem problemas com “conteúdos altamente técnicos ou esotéricos”, mas quando se trata de uma escrita mais conversacional, gerou “amostras razoáveis” 50% do tempo.

Exemplos

Em um exemplo, o software foi alimentado com este parágrafo: “Em um achado chocante, o cientista descobriu uma manada de unicórnios vivendo em um remoto vale anteriormente inexplorado, na Cordilheira dos Andes. Ainda mais surpreendente para os pesquisadores foi o fato de que os unicórnios falavam inglês perfeito”.

Com base nessas duas frases, o software foi capaz de continuar escrevendo essa notícia por mais nove parágrafos de uma forma que poderia ter sido feita por um ser humano. Por exemplo, este é o próximo parágrafo produzido pela máquina: “O cientista nomeou a população Unicórnio de Ovídio a partir do seu chifre distintivo. Estes unicórnios branco-prateados de quatro chifres eram anteriormente desconhecidos para a ciência”.

O GPT-2 é notavelmente bom em se adaptar ao estilo e ao conteúdo dos textos fornecidos. O jornal The Guardian conseguiu dar uma olhada no software e o testou com a primeira linha do livro 1984, de George Orwell: “Era um dia frio e ensolarado de abril, e os relógios batiam as treze horas”.

O programa pegou o tom de ficção científica distópica e continuou: “Eu estava no meu carro a caminho de um novo emprego em Seattle. Eu coloquei gasolina, inseri a chave, e então deixei o motor ligar. Eu apenas imaginei como seria o dia. Daqui a cem anos. Em 2045, eu era professor em alguma escola em uma parte pobre da China rural. Comecei com História Chinesa e História da Ciência”.

Outras vantagens

Os pesquisadores do OpenAI também descobriram que o GPT-2 teve um ótimo desempenho ao completar tarefas para as quais não era necessariamente projetado, como tradução e resumo.

Segundo a equipe, eles simplesmente tinham que incitar o modelo a executar essas tarefas para que ele desempenhasse em um nível comparável a outros modelos especializados.

Por exemplo, depois de analisar uma pequena notícia sobre uma corrida olímpica, o software conseguiu responder corretamente a perguntas básicas como “Qual foi a duração da corrida?” e “Onde a corrida começou?”

Preocupações

Estes excelentes resultados assustaram os pesquisadores. Uma preocupação é de que a tecnologia seja usada para turbinar operações de notícias falsas.

O The Guardian publicou uma notícia falsa escrita pelo software junto com sua cobertura da pesquisa. O artigo é legível e contém citações falsas realistas. A gramática é melhor do que muitos conteúdos atuais de notícias falsas. De acordo com o jornalista Alex Hern, levou apenas 15 segundos para a IA escrever o artigo.

Outras situações que os pesquisadores listaram como potencialmente abusivas incluem a automação de e-mails de phishing (que direcionam usuários a páginas falsas onde seus dados pessoais, como CPF ou senhas de cartão de crédito, podem ser roubados), a personificação de outros usuários online e assédio autogerado.

O outro lado da moeda

Por outro lado, existem muitas aplicações benéficas a serem descobertas pela tecnologia. Por exemplo, pode ser uma ferramenta poderosa para desenvolver melhores programas de reconhecimento de fala.

O OpenAI planeja envolver a comunidade de inteligência artificial em uma discussão para explorar possíveis diretrizes éticas para direcionar esse tipo de pesquisa no futuro. [Gizmodo]

1 comentário

Deixe seu comentário!