Como evitar a revolta das máquinas assassinas?

Por , em 18.03.2009

Especula-se que, se considerarmos o avanço na indústria robótica, em um futuro próximo teremos um verdadeiro exército de trabalhadores de metal incansáveis e companheiros para os humanos. Mas tudo isso não é tão simples. Filmes como Eu, Robô, O Exterminador do Futuro e Matrix mostram como a robótica tem seu lado negro. Já houve também acidentes reais nos quais robôs militares defeituosos acabaram com a vida de pessoas inocentes.

Se forem fabricados inúmeros robôs, com o único propósito de satisfazerem nossas vontades, o que impede que, eventualmente, haja algum defeito em sua programação e eles se revoltem contra nós, seus criadores?

Especialistas acham que essa visão está em um horizonte muito distante. No entanto, o uso de robôs de guerra, que possam decidir de forma autônoma no que atirar está previsto para daqui a vinte anos.

O exército americano, por exemplo, tem mais de 5 mil veículos aéreos que não são tripulados, vigiando os céus, como o Predator, que já vaporizaram terroristas com seus mísseis. Por enquanto, a maioria essas máquinas são controladas por humanos, que ficam protegidos, no chão. Mas algumas já têm a habilidade de “puxar o gatilho” por conta própria.

A marinha e o exército dos Estados Unidos usam um sistema anti-mísseis que, automaticamente, miram em projéteis, considerados mísseis, e os destroem antes que eles possam chegar ao seu destino. Na Coréia do Sul e em Israel foram desenvolvidas sentinelas que atiram antes e depois ‘fazem as perguntas’.

Unidades como essa, mesmo que sejam construídas para a defesa, podem abrir o caminho para robôs ofensivos, que decidam quando atacar. “Isso na próxima década, ou daqui a duas décadas” declara Patrick Lin, pesquisador da Universidade Politécnica da Califórnia. Lin pesquisou a ética usada na fabricação de robôs militares nos EUA. Aparentemente, o problema é garantir que os robôs cumpram seu papel e não tenham nenhum defeito na hora de uma batalha.

“Sim, podemos argumentar que um robô não sente raiva, nem tem desejo por vingança. Mas é uma máquina, ele também não sentirá compaixão” explica Noel Sharkey, especialista em robótica da Universidade de Sheffield, no Reino Unido. Sharkey destaca situações em que os robôs precisem tomar decisões no campo de batalha, como civis inocentes no meio da guerra, ou crianças forçadas a se portarem como soldados.

Há algumas soluções propostas. Provavelmente, os robôs não substituirão, completamente, a força militar, de acordo com Ronald Arkin, outro especialista em robótica, da Universidade Tecnológica da Geórgia. Ao invés disso, os robôs funcionarão e lutarão ao lado de humanos e apenas em papéis específicos. Sua presença incansável seria, até, benéfica, pois os robôs poderiam ser programados para evitar que soldados cansados e afetados pelo calor da batalha, abusem de civis e de prisioneiros.

No entanto, a perfeição robótica pode não ser ideal em todas as situações. E ainda não está claro se seres humanos, eticamente, poderiam ordenar que robôs façam o “trabalho sujo” que somos incapazes de realizar.

“Não acredito que sistemas robóticos autônomos irão se comportar de forma perfeitamente ética em um campo de batalha. Mas tenho certeza que serão mais éticos do que muitos soldados humanos que estão por aí” declara Arkin.

Há quem especule que essas questões, no futuro, serão irrelevantes, já que a linha entre humano e robótico será cada vez mais tênue. [Live Science]

1 comentário

  • G.Holmes:

    Já estão sendo desenvolvidos para dar às máquinas uma espécie de “Criatividade” e “Senso”…e já é um campo de estudo na tecnologia, é a tão temida Computação/Robótica Semântica, se pesquisarem a respeito, verão que algo como a Skynet e “Eu Robô” não é uma coisa muito distante não…

Deixe seu comentário!