Em breve, drone militar será capaz de decidir quem matar com base em inteligência artificial
Exército dos Estados Unidos está desenvolvendo os primeiros drones autônomos
O Exército dos Estados Unidos está desenvolvendo os primeiros drones capazes de identificar e abater veículos e pessoas usando inteligência artificial (IA). Atualmente, drones militares atuais ainda são controlados por pessoas. A nova tecnologia, porém, poderá decidir quem matar ou manter vivo, com quase nenhum envolvimento humano na ação.
O projeto ainda está em fase de desenvolvimento. Porém, com o uso oficial desses drones, militarização da IA certamente vai desencadear questionamentos legais e éticos. Há uma chance de que a guerra passe do combate (liderado por homens) ao extermínio (liderado por máquinas), perdendo qualquer semelhança com o conceito de humanidade no processo. Ao mesmo tempo, poderia ampliar a esfera de guerra para que as empresas, engenheiros e cientistas que construíssem IA se tornassem alvos militares importantes.
Questionamentos éticos e negócios
Os drones militares letais existentes, como o MQ-9 Reaper, são controlados e pilotados via satélite por humanos. Seus condutores têm a responsabilidade final na decisão de matar alvos humanos e na decisão de suspender o ataque para não matar outros civis inocentes.
Além dos questionamentos éticos da esfera humana, há preocupação sobre o chamado “uso duplo”, quando empresas e entidades são usadas para fins civis e também militares — o que pode incluir linhas de código. Empresas de tecnologia como o Google, seus funcionários ou seus sistemas podem se tornar responsáveis indiretos por ataques.
Caso o software AI de reconhecimento de imagem Project Maven do Google for incorporado a um drone autônomo militar americano, o Google poderá se ver envolvido até o pescoço em ações militares de drones, assim como qualquer outro contribuinte civil para os sistemas.