Stephen Hawking alerta: nosso tempo como espécie dominante no planeta está acabando
O famoso físico Stephen Hawking afirmou mais uma vez seu receio de que seja apenas uma questão de tempo até que a humanidade precise fugir da Terra em busca de um novo lar.
Em uma entrevista recente concedida ao portal Wired, Haking ponderou que a sobrevivência da humanidade dependerá da nossa capacidade de se tornar uma espécie multiplanetária.
Por quê?
Por conta da população crescente e ameaça iminente que o desenvolvimento da inteligência artificial (IA) representa. “O gênio está fora da garrafa”, Hawking disse à Wired.
Desgraça com mais desgraça
Essa não é a primeira vez que o físico faz previsões sombrias sobre o destino da Terra, ou adverte que a IA pode tornar-se tão perigosa a ponto de substituir a humanidade.
Em entrevista realizada em março com o The Times, o cientista afirmou ainda que um apocalipse IA estava para acontecer, e que a criação de “alguma forma de governo mundial” seria necessária para controlar a tecnologia.
Também já advertiu sobre o impacto que a IA teria em empregos de classe média e até pediu uma proibição definitiva sobre o desenvolvimento de agentes de IA para uso militar.
Hawking está exagerando?
Talvez não.
É possível argumentar, com bastante razão, que máquinas inteligentes já estão acabando com muitos empregos. Não estamos falando apenas de funções automatizadas na grande indústria – robôs já estão realizando tarefas especializadas até mesmo em hospitais, e costurando roupas mais rápido que humanos. Um estudo, inclusive, estimou que 47% dos empregos vão desaparecer nos próximos 20 anos.
Além disso, vários países – incluindo os EUA e a Rússia, envolvidos agora em uma tensão política – estão pesquisando armas IA para uso militar.
Por fim, e mais assustadoramente ainda, uma IA bastante avançada – mas que já chegou a concordar automaticamente com a noção de destruir a humanidade – se tornou o primeiro robô a ganhar cidadania.
Medo justificado
O desenvolvimento da IA é um tópico que já foi debatido por outros especialistas além de Hawking, como Elon Musk, CEO da SpaceX e Tesla, e Bill Gates, cofundador da Microsoft.
Tanto Musk quanto Gates concordam com o físico no potencial da IA de extinguir a humanidade.
Ainda que existam pesquisadores que não acreditem em um cenário apocalíptico, inclusive argumentando que tais preocupações são desgastantes e distorcem a percepção pública da IA, Hawking defende que os receios são válidos.
“Se as pessoas projetam vírus de computador, alguém irá projetar uma IA capaz de evoluir e se replicar”, disse ao Wired. “Esta será uma nova forma de vida que superará os humanos”.
Certamente, uma IA inteligente o suficiente para pensar melhor e mais rápido do que os humanos seria capaz de ameaçar nossa espécie – o que chamamos de singularidade tecnológica.
Preparação
Uma vez que diversos cientistas estão trabalhando com inteligência artificial em todo o planeta, é inevitável supor que, mais cedo ou mais tarde, uma tragédia pode acontecer.
O palpite de Hawking é que, em algum momento dentro do prazo de 1.000 anos, a humanidade vai precisar sair da Terra de qualquer forma.
O físico pode estar errado, no entanto. Não sabemos exatamente como (e se) tal singularidade tecnológica será, e, em vez de causar a destruição da humanidade, ela poderia inaugurar uma nova era de colaboração entre seres vivos e máquinas.
Em ambos os casos, contudo, o potencial da IA para ser usada tanto para o bem quanto para o mal exige que tomemos as precauções necessárias. [ScienceAlert]