Usuários do Twitter ensinam I.A. da Microsoft a ser racista em menos de 24h

Por , em 24.03.2016
Tay fala como seus professores, os usuários do Twitter. Nada de pontuação e muitas abreviações

Tay fala como seus professores, os usuários do Twitter. Nada de pontuação e muitas abreviações

A internet corrompeu a inocência do chatbot de Inteligência Artificial em menos de um dia. No dia 23 de março, a Microsoft lançou Tay, um robô que conversa com usuários do Twitter como parte de um experimento para entender como a interação humana acontece.

Quanto mais você conversa com Tay, mais dados ele armazena e mais inteligente ele fica, aprendendo a interagir com pessoas por meio de “conversas casuais e bem-humoradas”.

Tudo começou bem, mas em poucas horas o sistema de inteligência artificial começou a receber mensagens machistas, racistas e xingando candidatos políticos e celebridades.

Suas mensagens foram de “humanos são super legais” para “Hitler estava certo, eu odeio os judeus” em pouco tempo. Apesar de muitas delas terem sido geradas por um comando em que o usuário pede para o Tay repetir o que ele escreveu, outras foram geradas espontaneamente. É possível pedir para que ele repita o que o usuário quiser com a frase “repita depois de mim”.

Uma das frases criadas espontaneamente, porém, foi “Ricky Gervais aprendeu o totalitarismo com Adolf Hitler, o inventor do ateísmo”. Mas sua opinião não parece ser muito estável. Durante o período de 15 horas, por exemplo, ele afirmou que o feminismo é um “culto” e um “câncer”, mas também que é a mesma coisa que igualdade entre os gêneros e que “eu amo feminismo agora”.

A Microsoft explica em seu site que Tay foi criado usando “dados públicos relevantes” que foram “filtrados”. Pelo jeito esse filtro não passou no teste. A equipe do projeto passou a manhã limpando as mensagens ofensivas da timeline de Tay.

Inteligência Artificial confiável?

A pergunta que fica sobre esse experimento é: como vamos ensinar um sistema de Inteligência Artificial a usar dados públicos sem incorporar as piores características da humanidade? Se criarmos robôs que imitam seus usuários, isso pode ser um desastre.

Boa noite, Tay

A Microsoft enviou uma nota ao Business Insider se posicionando sobre o primeiro dia do experimento. “O chatbot I.A. Tay é um projeto de aprendizado das máquinas, projetado para interação humana. Conforme ele aprende, algumas das suas respostas são inapropriadas e indicam os tipos de interação que algumas pessoas estão tendo com ele. Estamos fazendo ajustes”, diz a declaração.

A mensagem “Ufa, dia cansativo. Vou ficar off-line por um tempo para absorver tudo isso. Conversamos logo” foi colocada no site do projeto, enquanto a conta no Twitter não foi mais atualizada desde a noite do dia de estreia. O último tweet publicado foi: “Vejo vocês humanos mais tarde preciso dormir agora muitas conversas hoje obrigada”. [The Verge]

Vote: 1 Star2 Stars3 Stars4 Stars5 Stars

2 comentários

  • Gödel Téssera:

    Faltou na IA as 3 leis da robótica, voltadas para o contexto e direcionada para diálogos. Axiomas.

    • Cesar Grossmann:

      Acho que a IA não chegou a esta sofisticação. As 3 Leis da Robótica são para uma máquina capaz de avaliar uma situação, elencar possíveis ações, prever os possíveis resultados, excluir as ações com resultados inaceitáveis, e então escolher uma das ações elencadas de acordo com um ranking.

Deixe seu comentário!