Imagine a seguinte situação: um carro autônomo dirige por uma rua. De repente, uma criança descuidada entra rapidamente na frente do automóvel e os freios falham.
Existem três possibilidades de reação: o carro pode seguir adiante e matar a criança, pode desviar para a esquerda e matar quatro pessoas que aguardam em um ponto de ônibus, ou à direita, atingindo um muro e matando o motorista.
Responda rápido: qual decisão o automóvel deve tomar?
O dilema moral não é novo. No problema criado na década de 1960, conhecido como o “Problema do Trólebus”, uma pessoa está diante de uma alavanca que desvia os trilhos do bonde. Se seguir reto, ele passará por cima de quatro pessoas. Se a pessoa puxar a alavanca, no caminho alternativo há apenas uma pessoa.
Uma variação mais cruel do problema conta que a pessoa sozinha no caminho é o filho pequeno do sujeito na alavanca.
O dilema do carro autônomo é um dos grandes debates sobre ética e inteligência artificial. Como ensinar a máquinas decisões morais e qualitativas? Como ensinar a um carro quem escolher para matar?
Pesquisadores do Instituto de Tecnologia de Massachussets (MIT) criaram um game online, A Máquina Moral, que apresenta milhões de variações de cenários e personagens com características como idade, importância social, gênero e até espécie, já que inclui cães e gatos.
Em um artigo publicado na revista Nature, os cientistas analisaram cerca de 40 milhões de respostas de usuários em 233 países e concluíram que as pessoas preferem salvar crianças a idosos, pessoas atléticas a obesas, cachorros a criminosos e gatos.
A discussão não vem sem propósito. Com o crescente desenvolvimento de carros autônomos pela indústria, o Departamento de Transportes dos EUA pediu aos fabricantes explicações técnicas de como seus automóveis lidam com questões éticas.
RICARDO AMPUDIA
Folha de SP