Ícone do site HypeScience

Empresa de IA afirma ter criado um gerador de texto muito perigoso para ser lançado

Cientistas da organização sem fins lucrativos OpenAI decidiram frear sua pesquisa em um novo software de geração de texto baseado em inteligência artificial, enquanto exploram os danos que a tecnologia poderia causar.

O software é tão bom em prever a próxima palavra em uma frase e imitar a escrita de seres humanos que os pesquisadores temem que seja usado de maneira antiética, por exemplo, para turbinar o lançamento de fake news (notícias falsas).

O medo

Elon Musk já afirmou que a inteligência artificial é a “maior ameaça existencial” para a humanidade.

Musk é um dos financiadores primários do OpenAI e, embora tenha assumido um papel secundário na organização, seus pesquisadores parecem compartilhar suas preocupações sobre a abertura de uma caixa de Pandora.

Esta semana, o OpenAI compartilhou um artigo sobre sua tecnologia de geração de texto, mas não tornaram pública a pesquisa completa, por medo de que ela possa ser abusada.

Ao invés disso, a equipe divulgou um modelo menor para os pesquisadores experimentarem.

Como funciona

Na versão simplificada, os cientistas usaram 40 GB de dados extraídos de 8 milhões de páginas da web para treinar o software GPT-2. Isso é dez vezes a quantidade de dados que eles usaram no primeiro experimento com o GPT.

Quando o processo de treinamento foi concluído, a equipe descobriu que o software poderia ser alimentado com uma pequena quantidade de texto e continuar a escrevê-lo de forma convincente.

O GPT-2 tem problemas com “conteúdos altamente técnicos ou esotéricos”, mas quando se trata de uma escrita mais conversacional, gerou “amostras razoáveis” 50% do tempo.

Exemplos

Em um exemplo, o software foi alimentado com este parágrafo: “Em um achado chocante, o cientista descobriu uma manada de unicórnios vivendo em um remoto vale anteriormente inexplorado, na Cordilheira dos Andes. Ainda mais surpreendente para os pesquisadores foi o fato de que os unicórnios falavam inglês perfeito”.

Com base nessas duas frases, o software foi capaz de continuar escrevendo essa notícia por mais nove parágrafos de uma forma que poderia ter sido feita por um ser humano. Por exemplo, este é o próximo parágrafo produzido pela máquina: “O cientista nomeou a população Unicórnio de Ovídio a partir do seu chifre distintivo. Estes unicórnios branco-prateados de quatro chifres eram anteriormente desconhecidos para a ciência”.

O GPT-2 é notavelmente bom em se adaptar ao estilo e ao conteúdo dos textos fornecidos. O jornal The Guardian conseguiu dar uma olhada no software e o testou com a primeira linha do livro 1984, de George Orwell: “Era um dia frio e ensolarado de abril, e os relógios batiam as treze horas”.

O programa pegou o tom de ficção científica distópica e continuou: “Eu estava no meu carro a caminho de um novo emprego em Seattle. Eu coloquei gasolina, inseri a chave, e então deixei o motor ligar. Eu apenas imaginei como seria o dia. Daqui a cem anos. Em 2045, eu era professor em alguma escola em uma parte pobre da China rural. Comecei com História Chinesa e História da Ciência”.

Outras vantagens

Os pesquisadores do OpenAI também descobriram que o GPT-2 teve um ótimo desempenho ao completar tarefas para as quais não era necessariamente projetado, como tradução e resumo.

Segundo a equipe, eles simplesmente tinham que incitar o modelo a executar essas tarefas para que ele desempenhasse em um nível comparável a outros modelos especializados.

Por exemplo, depois de analisar uma pequena notícia sobre uma corrida olímpica, o software conseguiu responder corretamente a perguntas básicas como “Qual foi a duração da corrida?” e “Onde a corrida começou?”

Preocupações

Estes excelentes resultados assustaram os pesquisadores. Uma preocupação é de que a tecnologia seja usada para turbinar operações de notícias falsas.

O The Guardian publicou uma notícia falsa escrita pelo software junto com sua cobertura da pesquisa. O artigo é legível e contém citações falsas realistas. A gramática é melhor do que muitos conteúdos atuais de notícias falsas. De acordo com o jornalista Alex Hern, levou apenas 15 segundos para a IA escrever o artigo.

Outras situações que os pesquisadores listaram como potencialmente abusivas incluem a automação de e-mails de phishing (que direcionam usuários a páginas falsas onde seus dados pessoais, como CPF ou senhas de cartão de crédito, podem ser roubados), a personificação de outros usuários online e assédio autogerado.

O outro lado da moeda

Por outro lado, existem muitas aplicações benéficas a serem descobertas pela tecnologia. Por exemplo, pode ser uma ferramenta poderosa para desenvolver melhores programas de reconhecimento de fala.

O OpenAI planeja envolver a comunidade de inteligência artificial em uma discussão para explorar possíveis diretrizes éticas para direcionar esse tipo de pesquisa no futuro. [Gizmodo]

Sair da versão mobile