Os carros autônomos, também chamados de carros de autocondução, são veículos que podem dirigir sozinhos, sem ajuda humana.
Cada vez mais empresas, incluindo gigantes como a Google, estão desenvolvendo e experimentando com a tecnologia, de forma que não deve demorar muito para vermos esses carros nas ruas de todo o mundo.
No entanto, à medida que as companhias vão estudando esses veículos, surgem novas perguntas sobre como eles deveriam responder a determinadas situações.
Quando estamos dirigindo, fazemos uma série de decisões que possuem suas próprias consequências. Mas como programar um carro para fazer tais decisões? Por exemplo, se alguém corre para o meio da rua, o carro deve desviar e possivelmente matar o motorista ou os passageiros, ou deve manter-se em sua direção atual e possivelmente matar o pedestre?
Máquina Moral
Estes são alguns dos dilemas morais mais difíceis que os pesquisadores estavam enfrentando. Assim, os cientistas do Instituto de Tecnologia de Massachusetts, nos EUA, criaram um site chamado “Moral Machine” (em português, “Máquina Moral”) para permitir que seres humanos decidam o que os carros deveriam fazer em diversos cenários.
Por exemplo, no cenário abaixo, o freio do carro falha. Você pode escolher entre desviar de uma barreira de concreto, matando uma mulher, uma idosa, um criminoso e um bebê, ou deixar o carro bater na barreira, matando três gatos e um cachorro.
Existem outros cenários que bagunçam ainda mais a cabeça das pessoas no quesito de “qual vida vale mais”, como a escolha entre desviar de uma barreira de concreto, matando uma mulher, um sem-teto e um criminoso, ou deixar o carro bater na barreira, matando um homem, uma médica e uma mulher. (Como o carro saberia quem é criminoso e quem é médico é algo que não faço ideia.)
Há ainda cenários bizarros que te obrigam a escolher entre matar um atleta e um homem grande, ou uma atleta e uma mulher grande:
A meta dos pesquisadores é obter um senso a partir de várias fontes de como as pessoas lidam com esses dilemas. Eles chamam a ferramenta de uma “plataforma de coleta de perspectiva humana sobre decisões morais feitas por inteligência artificial”.
Faça o teste
Depois que você fizer o teste, a plataforma mostra quem você protegeu mais e quem matou mais, e o quanto cada coisa importou para você em comparação com outras pessoas que também responderam às perguntas.
Você ainda pode acrescentar quantos cenários quiser para outras pessoas os julgarem. O site está todo em inglês.
Clique aqui para fazer o teste. [BusinessInsider]