IA inteligente como humanos: Previsão para 2028

Por , em 30.10.2023

Há mais de uma década, um dos co-fundadores do laboratório de inteligência artificial DeepMind, pertencente ao Google, fez uma previsão de que até 2028 a IA poderia ter uma chance de 50-50 de alcançar um nível de inteligência comparável à dos seres humanos. Essa previsão ainda é mantida por Shane Legg, co-fundador do DeepMind, como ele discutiu em uma entrevista com o podcaster de tecnologia Dwarkesh Patel. Legg inicialmente compartilhou esse ponto de vista no final de 2011 por meio de uma postagem em seu blog.

Essa previsão é notável, dada a crescente interesse no campo da IA. Sam Altman, CEO da OpenAI, tem sido um grande defensor da conquista da Inteligência Artificial Geral (IAG), que se refere a sistemas de IA capazes de realizar tarefas intelectuais em pé de igualdade com os seres humanos. No entanto, se esse objetivo pode ser alcançado e se um consenso pode ser alcançado sobre o que exatamente IAG envolve permanece incerto.

A aspiração de Shane Legg para a IAG até 2028 remonta à sua leitura de “A Era das Máquinas Espirituais”, um livro inovador de Ray Kurzweil em 1999. O livro de Kurzweil projetou um futuro com IA super-humanas. Legg destacou dois pontos-chave do livro que influenciaram sua crença: o crescimento exponencial da potência computacional ao longo de várias décadas e o aumento exponencial dos dados globais.

A visão de Legg para a IAG nos anos seguintes baseou-se na compreensão das tendências, como o aprendizado profundo, que emula processos cerebrais humanos para processar dados. Ele acreditava que a IAG poderia ser alcançável nos próximos anos, desde que eventos imprevistos, como guerras nucleares, não interrompessem o progresso.

No entanto, Legg reconhece agora certas ressalvas em relação à sua previsão sobre a chegada da era da IAG até o final desta década. Um dos principais desafios é a dificuldade em definir com precisão a IAG, uma vez que ela depende de definições de inteligência humana. A inteligência humana abrange uma ampla variedade de habilidades, tornando difícil criar um conjunto abrangente de testes para avaliar a IAG. No entanto, Legg sugere que, se um sistema de IA se sair bem em um conjunto de testes de inteligência humana, ele poderia ser considerado IAG.

Quando perguntado se poderia haver um único teste direto para determinar a IAG, Legg rejeitou a ideia, enfatizando que a IAG envolve inteligência geral e requer proficiência em várias áreas.

O segundo desafio significativo apontado por Legg é a necessidade de escalar significativamente os modelos de treinamento de IA. Este desafio é relevante, dado o consumo substancial de energia associado ao desenvolvimento de grandes modelos de linguagem, como o GPT-4 da OpenAI. Legg acredita que há um forte incentivo para descobrir algoritmos escaláveis para um treinamento de IA mais eficiente.

No que diz respeito ao status atual do desenvolvimento da IAG, Legg expressou confiança na potência computacional existente necessária para buscar a IAG. Ele acredita que o primeiro passo crucial é começar a treinar modelos com dados em uma escala além das experiências humanas ao longo da vida, uma conquista que ele acredita que a indústria de IA está preparada para realizar.

Shane Legg mantém sua crença pessoal de que há uma chance de 50% de alcançar a IAG até o final desta década, mas reconhece que isso permanece incerto. Ele considera isso plausível, mas não se surpreenderá com a possibilidade de a IAG não ser realizada até 2028. O Futurismo entrou em contato com o DeepMind para obter informações adicionais que eles possam fornecer sobre essa previsão. [Futurism]

Deixe seu comentário!