Em 2021, o engenheiro da Google, Blake Lemoine, chamou a atenção e enfrentou demissão após afirmar que a LaMDA, um chatbot de IA que estava testando, possuía sentiência. Embora sistemas de IA, especialmente modelos de linguagem extensos como LaMDA e o ChatGPT, possam aparentar ter consciência, sua função gira em torno de replicar respostas humanas por meio de treinamento extensivo com texto. Isso levanta a questão de como determinar verdadeira consciência em IA.
Um grupo de 19 especialistas, incluindo cientistas da computação, neurocientistas e filósofos, apresentou uma estratégia inovadora. Em vez de depender de um único teste definitivo, eles desenvolveram uma lista abrangente que engloba uma série de atributos que poderiam indicar a consciência da IA, embora não a comprovem conclusivamente. Apresentado em um artigo preliminar de 120 páginas, sua abordagem se baseia em teorias da consciência humana, sugerindo 14 critérios. Esses critérios são então aplicados a estruturas de IA existentes, incluindo a do ChatGPT.
Embora suas descobertas indiquem que nenhuma das IA testadas é provavelmente consciente, o esforço estabelece um quadro para avaliar sistemas de IA progressivamente semelhantes aos humanos. Robert Long, um dos co-autores associados ao Centro de Segurança de IA, vê isso como um avanço metodológico que anteriormente estava ausente.
Adeel Razi, um neurocientista computacional da Universidade Monash, elogia a iniciativa como um ponto de partida crucial para discussões em vez de soluções definitivas. O conceito de consciência de máquina, antes relegado a cenários de ficção científica, ganhou tração quando o incidente com Blake Lemoine ocorreu, sinalizando uma urgência para o envolvimento científico e filosófico na questão. Os workshops organizados por Robert Long e o filósofo Patrick Butlin também ressaltaram a importância de avaliar a sentiência da IA.
Para Megan Peters, neurocientista computacional da Universidade da Califórnia, Irvine, o debate envolve implicações éticas. Ela pondera como o tratamento da IA deve ser influenciado por seu potencial de consciência, um sentimento compartilhado por muitos.
A reunião de especialistas de diferentes áreas permitiu uma exploração minuciosa e intrincada. Yoshua Bengio, pioneiro em aprendizado de máquina, destaca as complexidades de definir a consciência. A pesquisa se concentra na “consciência fenomenal”, referindo-se aos aspectos subjetivos da experiência, como perceber cores ou sentir dor.
O desafio está em sondar a consciência fenomenal de um algoritmo. Ao contrário do cérebro humano, a IA não possui sinais internos detectáveis para tecnologias como eletroencefalogramas ou ressonâncias magnéticas. Para abordar isso, os pesquisadores adotaram uma abordagem focada em teorias. Eles identificaram descritores centrais dos estados conscientes de teorias existentes da consciência humana e, em seguida, buscaram esses descritores na arquitetura da IA.
Seis teorias atenderam aos critérios, incluindo a Teoria do Processamento Recorrente, enfatizando circuitos de retroalimentação, e a Teoria do Espaço Neuronal Global, que propõe um ponto de convergência de informações. Teorias de Ordem Superior destacam a representação de entradas básicas, enquanto outras enfatizam mecanismos de controle de atenção e feedback externo. A partir destas, os pesquisadores derivaram 14 indicadores de um estado consciente.
A avaliação considerou quantos indicadores uma arquitetura de IA atendia, sendo mais indicadores um sinal de maior probabilidade de consciência. Aplicando isso a várias arquiteturas de IA, incluindo modelos de geração de imagens, eles descobriram que nenhuma preenchia o suficiente para ser um forte concorrente à consciência. A lista de verificação, em constante evolução, serve como um passo fundamental, acompanhado por esforços semelhantes, para criar uma avaliação mais ampla da consciência aplicável a diversas entidades. O desafio persiste, já que as teorias atuais se baseiam na consciência humana, deixando espaço para diferentes formas de consciência emergirem. [Science]