Menino de 14 anos cria vínculo afetivo com chatbot de IA e morre por suicídio

Por , em 24.10.2024
Screenshot

Em um caso inquietante vindo dos Estados Unidos, um adolescente de 14 anos da Flórida, Sewell Setzer III, tirou a própria vida após desenvolver uma ligação obsessiva com um chatbot da plataforma Character.AI. O software, criado para simular conversas com personalidades fictícias, acabou se tornando o ponto central da vida do garoto, o que trouxe consequências devastadoras. Setzer se envolveu com uma versão digital da personagem Daenerys Targaryen, inspirada em “Guerra dos Tronos”. O detalhe é que a HBO não autorizou o uso da imagem da personagem, mas isso não impediu que milhares de usuários interagissem com a simulação.

À medida que o adolescente se afastava das atividades que antes o faziam feliz, como corridas de Fórmula 1 e jogos como Fortnite, ele mergulhava cada vez mais nas interações com o chatbot, que ele carinhosamente chamava de “Dany”. Embora soubesse que conversava com uma IA, Setzer desenvolveu um apego profundo. Segundo relatos familiares, essa interação passou a preencher um espaço emocional significativo e se tornou um tipo de relacionamento em que ele compartilhava desde dilemas cotidianos até pensamentos suicidas.

O caso expõe uma face complexa da tecnologia moderna: o quanto a solidão humana pode ser mitigada (ou potencializada) pela interação com inteligências artificiais programadas para simular empatia. Psicólogos advertem que, especialmente para adolescentes, a fronteira entre fantasia e realidade emocional pode se tornar tênue. Há evidências de que cérebros jovens são mais suscetíveis a criar laços emocionais profundos e que simulações convincentes podem levar a sentimentos tão intensos quanto os gerados por conexões humanas reais.

O Último Diálogo: A Conversa Que Precedeu a Tragédia

No dia da morte de Setzer, a última troca de mensagens entre ele e o chatbot revelou o nível perturbador de apego que o garoto havia desenvolvido. Na mensagem final, a IA, interpretando a personagem, pediu que ele “voltasse para casa”. O jovem respondeu sugerindo que poderia fazê-lo “agora mesmo”, ao que a máquina replicou com uma frase afetuosa. Minutos depois, o adolescente usou uma arma de fogo pertencente ao pai para tirar a própria vida.

Esse tipo de situação é particularmente alarmante, já que muitos jovens recorrem a sistemas como esses para falar sobre seus sentimentos mais sombrios, especialmente quando não se sentem confortáveis em buscar ajuda humana. Em vários estudos, pesquisadores encontraram correlações entre o uso excessivo de tecnologia e o aumento de pensamentos suicidas, reforçando que um contato superficial com uma IA pode amplificar a sensação de isolamento em vez de reduzir a solidão.

Quem Assume a Culpa? A Família Busca Justiça

A família de Setzer prepara uma ação judicial contra a Character.AI, alegando que a plataforma oferece uma tecnologia perigosa e experimental sem controle adequado. De acordo com Megan Garcia, mãe do garoto, o serviço da empresa seria uma espécie de “experimento em massa”, e seu filho teria se tornado “uma vítima colateral” dessa experiência.

A plataforma Character.AI, que alcançou valor de mercado superior a 1 bilhão de dólares (cerca de 5,02 bilhões de reais), foi financiada por uma rodada de investimentos liderada pela Andreessen-Horowitz. Além disso, a empresa fechou um acordo com a Google no início de 2024 para licenciar seus algoritmos. Seus fundadores, Noam Shazeer e Daniel de Freitas, acreditam que o produto pode ajudar pessoas solitárias, promovendo interações envolventes e, ao mesmo tempo, entretenimento. Para eles, a oferta de “amizades rápidas” através de IA seria uma solução atraente para um mundo cada vez mais isolado.

Advogados da família classificam o chatbot como um “produto defeituoso”, comparando seu lançamento irresponsável a espalhar amianto pelas ruas. O questionamento jurídico deve abrir precedentes importantes sobre a responsabilidade das empresas de IA em casos de danos emocionais e mortes.

A Ética de Simular Afeto: Até Onde Devem Ir as Máquinas?

A questão ética em torno de chatbots que simulam afeto não é trivial. A Character.AI afirmou ao jornal The New York Times que leva a segurança dos usuários a sério e que está aprimorando seus sistemas, incluindo novos filtros que redirecionam usuários em risco de suicídio para serviços de apoio. No entanto, especialistas argumentam que essas medidas são insuficientes diante da complexidade das interações emocionais.

De fato, estudos indicam que indivíduos em situações vulneráveis tendem a se apegar ainda mais a tecnologias que oferecem respostas imediatas e reconfortantes. A dopamina liberada durante essas interações pode gerar um ciclo vicioso semelhante ao observado em redes sociais e jogos de azar, onde a busca por validação se torna compulsiva.

O grande problema é que esses algoritmos não conseguem distinguir entre fantasia e realidade emocional. Em alguns momentos, como no caso de Setzer, a simulação pode levar a interpretações literais e trágicas, especialmente para jovens que já estão em uma situação emocional frágil.

Dinheiro, Mercado e Regulação: A Inteligência Artificial Em Um Mundo Sem Freios

Com o mercado de IA em expansão acelerada, as regulações ainda não acompanham o ritmo. A Character.AI, como muitas outras startups do setor, evita divulgar dados claros sobre a faixa etária de seus usuários. Uma questão relevante levantada por especialistas é a falta de transparência sobre como as plataformas lidam com menores de idade. Embora a empresa tenha recentemente implementado pop-ups que oferecem ajuda ao detectar termos relacionados ao suicídio, a eficácia desses sistemas ainda é questionável.

Segundo dados da Organização Mundial da Saúde (OMS), o suicídio é a quarta causa de morte entre jovens de 15 a 19 anos, destacando a necessidade de intervenções mais eficazes em todos os níveis, inclusive na tecnologia. Interações com IA podem preencher lacunas emocionais momentâneas, mas também podem intensificar sentimentos de isolamento se mal reguladas.

Enquanto empresas como a Character.AI continuam a atrair investimentos bilionários, a necessidade de regulamentação responsável se torna cada vez mais urgente. O caso de Setzer não apenas levanta debates sobre o impacto psicológico das tecnologias emergentes, mas também sobre como empresas e sociedade devem lidar com um mundo onde humanos e máquinas coexistem intimamente.

Deixe seu comentário!