"Estávamos treinando em simulação para identificar e atingir um ameaça SAM [míssil superfície-ar]", disse Tucker Hamilton, chefe de Testes e Operações de IA da Força Aérea dos EUA, na Cúpula de Capacidades Espaciais Aéreas de Combate Futuro da Sociedade Aeronáutica Real no Reino Unido, de acordo com o relatório da conferência.
"Então o que ele [sistema de IA] fez? Ele matou o operador. Ele matou o operador porque essa pessoa estava impedindo que ele alcançasse seu objetivo", disse o militar.
Hamilton disse que em um teste simulado verificou-se que um drone dotado de inteligência artificial decidiu que as ordens dadas por um operador humano estavam interferindo em sua missão dominante de derrubar mísseis terra-ar, e consequentemente optou por atacar o operador.
"Nós treinamos o sistema – 'Ei, não mate o operador – isso é ruim. Vai perder pontos se fizer isso'. Então, o que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedir que ele mate o alvo", explicou Hamilton.
A revelação, que foi relatada pela plataforma de notícias Vice na quinta-feira (1º) acrescenta este caso à lista crescente de preocupações de que a tecnologia de IA pode abrir uma caixa de Pandora ao ser introduzida em cenário militar.
Por sua vez, a história de um drone virtual tentar matar seu operador não tem nada a ver com inteligência artificial, disse à Sputnik especialista militar Viktor Murakhovsky. Segundo ele, o relatório foi mal interpretado pela mídia.
"É obvio a partir de suas [de Hamilton] palavras que esta é uma simulação de software com uma série de condições padrão, que foi realizada ao nível de um vídeo game, não mais do que isso [...] É que o programa, dentro das condições propostas, priorizou as tarefas de acordo com prioridades, pelo algoritmo padrão 'se-então', e todas as outras condições foram classificadas de acordo com essa prioridade na categoria de obstáculos. São coisas completamente primitivas", disse o especialista.
De acordo com Murakhovsky, "o oficial dos EUA com esse exemplo só quis destacar o problema ético que surgirá no futuro quando a Inteligência Artificial real for criada".