Em seu artigo, o autor cita comentários do tenente-general do Corpo de Fuzileiros Navais dos EUA Michael Groen, que considera que se a Rússia criar "inteligência artificial militar" os EUA e seus aliados não serão capazes de dar uma resposta equivalente.
Osborn explica que armamento controlado por IA não seria guiado por considerações éticas ou humanitárias para efetuar um ataque.
"Isto poderia colocar as forças dos EUA em desvantagem em um cenário que requer tomada de decisões sobre o uso da força letal, uma vez que um ser humano deve estar sempre informado, o que é uma disposição estipulada na doutrina do Pentágono", aponta Groen.
Nesse contexto, o tenente-general considera que há maneiras de projetar e usar armas altamente eficazes capacitadas com inteligência artificial que mantenham um alinhamento com parâmetros éticos estabelecidos.
Atualmente o Departamento de Defesa dos EUA está considerando o desenvolvimento de sistemas de inteligência artificial capazes de usarem instantaneamente armamento não letal ou defensivo contra alvos não humanos, tais como mísseis antinavio, morteiros, foguetes ou drones.
De acordo com o militar, isto ajudará a introduzir princípios éticos no uso de armas com inteligência artificial.
Recentemente, mídia israelense informou que as Forças de Defesa de Israel (FDI) pela primeira vez no mundo usaram IA, cuja aplicação foi fundamental para defesa e realização de ataques de precisão de foguetes e drones do Estado judeu durante o combate na Faixa de Gaza.