A inteligência artificial está cada vez mais se tornando um fator que definirá a guerra futura, com as forças armadas de grandes potências analisando suas vantagens.
Em consequência disso, estudiosos e líderes tecnológicos estão alertando que se essa tecnologia for instalada em sistemas de armas ela poderia posteriormente aprender como travar hostilidades sozinha ou tomar decisões independentes durante o combate.
Para aliviar os temores em relação a essa tecnologia, foram lançadas cinco diretrizes para a IA que receberam aprovação unânime.
Analisar próprias ações
A inteligência artificial deve ser confiável o suficiente para cumprir suas funções programadas e ser "rastreável", para que possa potencialmente ser auditada por observadores externos, de acordo com o Pentágono.
Os humanos ainda devem ser responsáveis pelo desenvolvimento, implantação e resultados de seu uso. A IA deve ser livre de qualquer "viés não intencional", como racismo ou sexismo, a menos que isso seja necessário em um ambiente militar.
Outro princípio requer que um sistema de IA seja capaz de analisar suas próprias ações e parar assim que detectar a possibilidade de causar danos desnecessários, devendo também ter uma opção para entregar o controle a um operador humano.
"As recomendações do DIB ajudarão a aumentar o compromisso do DoD [Departamento de Defesa dos EUA] em manter os mais altos padrões éticos, conforme descrito na estratégia de IA do DoD, enquanto assume a forte história do Exército dos EUA de aplicação de testes rigorosos e uso de padrões para inovações tecnológicas", disse o tenente-general John N.T. "Jack" Shanahan, diretor do Centro Conjunto de Inteligência Artificial.
Ataques letais
Acredita-se que a IA vai ajudar os militares dos EUA a vencerem adversários quase iguais, como a China ou a Rússia.
Os ataques letais com drones americanos – uma dimensão da guerra que faz uso de tecnologias modernas e depende de controle remoto – têm sido criticados há muito tempo por matar dezenas de civis inocentes.