Armas apocalípticas como bombas nucleares são, atualmente, domínio das potências mundiais. Mas, de acordo com alguns especialistas, isso está prestes a mudar.
Dentro de algumas décadas, pequenos grupos ou até mesmo indivíduos trabalhando sozinhos podem colocar suas mãos em tecnologias capazes de extinguir o planeta.
Fim do mundo
George Dvorsky, do portal io9, entrevistou Philippe van Nedervelde, membro do exército belga treinado em defesa nuclear-químico-biológica e especialista em riscos existenciais, bem como James Barrat, autor de “Our Final Invention: Artificial Intelligence and the End of the Human Era” (ainda sem tradução para o português), um livro preocupado com os riscos colocados pelo advento de maquinas de inteligência artificial superpoderosas.
“A grande maioria da humanidade hoje parece alegremente inconsciente do fato de que nós, na verdade, estamos em perigo real”, disse van Nedervelde.
Devemos evitar o alarmismo injustificado, mas o especialista acredita que uma convergência de riscos existenciais está se formando, o que pode significar más notícias para todos nós.
Abaixo, conheça algumas formas de exterminar a humanidade, e como indivíduos podem se aproveitar dela para destruir o planeta sozinhos.
Maiores riscos
De acordo com van Nedervelde, os riscos mais graves para o planeta hoje incluem um bioataque que cause uma pandemia, um intercâmbio global de bombas termonucleares, o surgimento de uma superinteligência artificial hostil aos seres humanos, e armas nanotecnológicas de destruição em massa.
“A ameaça de um bioataque é particularmente perigosa em um prazo relativamente curto”, afirma.
De fato, um precedente do século 20 nos mostrou quão sério tal ataque poderia ser, embora tenha sido uma pandemia natural: a gripe espanhola de 1918, que matou entre 50 e 100 milhões de pessoas (algo entre 2,5% e 5% de toda a população mundial naquele momento).
“A humanidade desenvolveu a tecnologia necessária para projetar patógenos eficazes. Dispomos do know-how necessário para otimizar seu funcionamento e combiná-lo com potência. Se desenvolvido para esse fim, patógenos transformados em armas podem ter sucesso em matar quase todos e possivelmente toda a humanidade”, prevê.
Quanto a ameaça de superinteligência artificial, dentro de algumas décadas, ela poderia ultrapassar a inteligência humana por uma ordem de magnitude. Uma vez desencadeada, pode ter um desejo de sobrevivência muito parecido com o nosso, ou poderia ser mal programada. Como resultado, podemos ser obrigados a competir com um rival que excede nossas capacidades de maneiras que mal podemos imaginar.
Um homem versus toda a humanidade
Como o Conselho de Segurança Nacional dos Estados Unidos uma vez declarou, “estamos ameaçados menos por frotas e exércitos do que por tecnologias catastróficas nas mãos de uns poucos amargurados”.
Ou seja, além de existirem tais armas que poderiam acabar com a humanidade, basta que um indivíduo queira que isso aconteça para o pesadelo virar realidade.
Por exemplo, van Nedervelde explica o conceito de “Asymmetric Destructive Capability”, ou “Capacidade Destrutiva Assimétrica” (CDA). “Isso significa que, com o avanço da tecnologia, menos dela é necessária para destruir mais coisas. Destruição em grande escala torna-se cada vez mais possível, com cada vez menos recursos. Previsivelmente, a convergência NBIC agrava e acelera o possível aumento exponencial dessa assimetria”.
NBIC é a convergência de quatro setores tecnológicos críticos: nanotecnologia (manipulação da matéria em escala molecular, como medicamentos e robótica), biotecnologia, tecnologia da informação e ciência cognitiva.
Por exemplo, o engenheiro de nanorrobótica Robert Freitas estima que os recursos necessários para desenvolver e implantar uma arma nanotecnológica de destruição em massa poderiam aparecer até 2040, com margem de erro de dez anos. Uma equipe pequena precisaria de poucas coisas facilmente acessíveis para fazer um grande estrago.
SIMAD
Outro conceito do qual van Nedervelde fala é SIMAD, abreviação de “Single Individual Massively Destructive”, ou “Indivíduo Único Massivamente Destrutivo”, que seriam indivíduos inteligentes que desenvolveram um rancor profundo contra a sociedade ou a espécie humana.
O caso do Unabomber fornece um bom exemplo. De 1978 a 1995, o matemático e ativista anticivilização Ted Kaczynski, também conhecido como Unabomber, cometeu uma série de atentados a bomba que mataram três pessoas e feriram outras 23.
Agora imagine um Unabomber habilitado pelas tecnologias NBIC convergentes. Tal indivíduo teria o potencial de causar mortes em escalas muito maiores.
Enquanto isso já é suficiente para perdemos o sono, pelo menos Barrat não considera que um único indivíduo poderia criar uma inteligência artificial maciçamente destrutiva – isso estaria mais perto em escala e complexidade ao Projeto Manhattan para fazer uma bomba atômica.
Não há como parar o investimento em IA
Barrat também é cético de que uma pequena equipe poderia criar uma máquina superinteligente. Com concorrentes como IBM, Google e a DARPA, a agência de defesa norte-americana, o especialista duvida que um pequeno grupo consiga alcançar tal feito primeiro – especialmente considerando que tal tecnologia é muito lucrativa, de forma que as grandes mentes financiadas por essas corporações vão trabalhar nela mesmo havendo riscos existenciais envolvidos.
Infelizmente, isso não exclui a possibilidade de que, eventualmente, um grupo terrorista ou um único indivíduo muito motivado consiga “roubar” algum código sofisticado, fazer os ajustes necessários, e utilizá-lo de forma potencialmente destrutiva.
Existem medidas preventivas que poderiam evitar uma catástrofe?
“A boa notícia é que não estamos totalmente indefesos contra essas ameaças”, disse van Nedervelde.
Por exemplo, uma forma de evitar problemas seria o acompanhamento psicológico de pessoas que apresentam comportamento desviante nos sistemas de ensino e outras instituições. Ou seja, uma espécie de “triagem” para detectar SIMADs quando eles são jovens, antes de realizarem seus planos mal-intencionados.
Nedervelde também acha que a governança global poderia ser melhorada de modo que organizações como a ONU e outras fossem mais eficazes em reagir rapidamente sempre uma ameaça existencial surgir.
Já para proteger-nos contra uma inteligência artificial descontrolada, segundo Barrat, pressupõe-se que as pequenas organizações sejam mais instáveis e precisem de mais supervisão do que as grandes – apesar de, neste momento, a NSA (Agência de Segurança Nacional norte-americana) representar uma ameaça muito maior para a constituição dos EUA do que a Al-Qaeda.
Barrat sugere uma parceria global público-privada para evitar ambições de certos grupos relacionadas a inteligência artificial, algo como a Agência Internacional de Energia Atômica.
Mais radicalmente, existe também a noção de um “Estado super vigilante”. De acordo com van Nedervelde, pequenos dispositivos com um milímetro cúbico ou menos poderiam flutuar no ar como partículas de poeira, criando uma rede de vigilância com olhos e ouvidos em toda parte. Estes seriam operados pelos cidadãos, tornando possível a chamada “responsabilidade recíproca” de toda a sociedade civilizada.
“Assumindo que a maior parte da vigilância não seria feita por seres humanos, mas por máquinas que podem detectar padrões, seria o fim da privacidade absoluta, mas restaria uma privacidade relativa, aceitável no meu ponto de vista”, argumenta o especialista, dado que isso representaria o fim de ataques terroristas, bem como, por exemplo, da violência doméstica e outros crimes. [io9]