Apesar de sua utilização não ser comentada pelos militares, autoridades israelenses confirmaram que o país usa um sistema de recomendação de IA para processar grandes quantidades de dados para selecionar alvos de ataques aéreos, calculando cargas de munição, priorizando e atribuindo milhares de alvos a aeronaves e drones.
A mídia destaca que esta tecnologia ainda não está sujeita a nenhuma regulamentação internacional ou estatal.
Críticos alertam para as consequências potencialmente mortais de depender de sistemas cada vez mais autônomos, uma vez que, se houver um erro no cálculo da IA, isso poderá acabar com uma família inteira, e ninguém será culpado por isso.
Em 2021, as FDI descreveram o conflito de 11 dias em Gaza como a primeira "guerra de IA" do mundo, citando sua utilização para identificar plataformas de lançamento de foguetes e implantar enxames de drones.
Nos últimos meses, Israel tem emitido alertas quase diários ao Irã sobre seu enriquecimento de urânio, prometendo que não permitirá que o país obtenha armas nucleares.
De acordo com militares de Tel Aviv, os sistemas usados por Israel são projetados para guerra total.
Sendo assim, a natureza secreta de como esses sistemas são desenvolvidos está levantando sérias preocupações, incluindo que a lacuna entre sistemas semiautônomos e máquinas de matar totalmente automatizadas poderia ser reduzida da noite para o dia.
Há décadas, Israel já deixou claro que está disposto a se tornar uma superpotência da IA, criando armas mortais sem qualquer interferência humana, o que pode significar um grande risco para a humanidade, principalmente devido à falta de transparência sobre o desenvolvimento desses sistemas.
Especialistas, citados pela mídia, acreditam que Israel deva usar a IA estritamente com fins defensivos, visto que a tecnologia ainda não é totalmente confiável para tomar certas decisões, que poderiam custar a vida de milhares de pessoas.