- Sputnik Brasil, 1920
Panorama internacional
Notícias sobre eventos de todo o mundo. Siga informado sobre tudo o que se passa em diferentes regiões do planeta.

Análise: sem regulação, militarização da IA pode ter consequências irreversíveis para a segurança global

© AP Photo / DVIDSSoldados britânicos lançam um drone com inteligência artificial durante os exercícios do Projeto Convergência em Fort Irwin, Califórnia. EUA, 4 de novembro de 2022
Soldados britânicos lançam um drone com inteligência artificial durante os exercícios do Projeto Convergência em Fort Irwin, Califórnia. EUA, 4 de novembro de 2022 - Sputnik Brasil, 1920, 24.07.2025
Nos siga no
Especiais
À Sputnik Brasil, especialistas apontam que a implementação da inteligência artificial na indústria bélica não é novidade, mas com o avanço da tecnologia, a falta de um marco regulatório global torna o limiar entre "análise estratégica legítima" e "vigilância massiva indiscriminada" perigosamente fluido.
A OpenAI, criadora do ChatGPT, fechou um contrato milionário com o Pentágono para desenvolver inteligência artificial (IA) no âmbito militar. A empresa irá desenvolver capacidades de IA de ponta prototípicas, com o intuito de enfrentar desafios críticos de segurança nacional, tanto no domínio da guerra quanto empresarial.
A notícia levantou questões sobre o uso dessa tecnologia no âmbito militar e a proteção de dados, já que a OpenaAI é uma empresa que tem cidadãos civis como usuários.
Em entrevista à Sputnik Brasil, Karla Tereza Figueiredo Leite, do Departamento de Informática e Ciências da Computação da Universidade do Estado do Rio de Janeiro (UERJ), lembra que o uso da IA no âmbito militar não é propriamente uma novidade.
Ela conta que, em 1963, durante a Guerra Fria, os EUA — preocupados com o avanço tecnológico da União Soviética (URSS), por meio do Pentágono — investiram em um projeto no Massachusetts Institute of Technology (MIT), voltado à exploração da cognição apoiada por máquinas Cormick.
"Esse evento parece ter sido o marco inicial da inteligência artificial como um componente central em assuntos relativos a guerras. Os resultados desse projeto foram importantes para o desenvolvimento de satélites de geolocalização (GPS), que, por sua vez, mais tarde possibilitaram a criação de veículos não tripulados e permitiram o desenvolvimento da indústria de drones", explica.
O prédio do Departamento de Estado dos EUA, em Washington, D.C., em 7 de dezembro de 2024 - Sputnik Brasil, 1920, 10.06.2025
Panorama internacional
Departamento de Estado dos EUA planeja usar IA para tomar decisões pessoais, diz mídia
Entre os benefícios da inclusão da tecnologia na indústria de guerra, Leite aponta o chamado "machine learning" (aprendizado de máquina, em tradução livre), que oferece diferentes possibilidades de auxílio relacionado a guerras, como no monitoramento de grandes volumes de dados, com vigilância avançada, abrangendo imagens de satélite; nas comunicações; e na identificação de padrões e previsão de movimentos do inimigo, com sensores, além da otimização logística.
"Aplicativos de ML [machine learning] auxiliam no gerenciamento de suprimentos, manutenção de equipamentos e planejamento de missões, reduzindo custos e desperdícios. Então há muitos usos para ML que não são exatamente colocar um robô com modelos de ML embarcados. Também há várias opções de apoio na área da saúde. Lembro que o [matemático e cientista da computação Alan] Turing colaborou com algoritmos para ajudar decifrando mensagens do inimigo."
Em relação às dúvidas sobre os limites éticos do uso da IA no âmbito militar, a especialista afirma que muitas medidas importantes nesse quesito já foram colocadas. "Agora seria a etapa da aderência por parte de todos."

"Organismos internacionais isentos deveriam fazer o controle sério sobre tudo o que é desenvolvido, seja usando ou não o machine learning, e que esteja voltado para desenvolvimento bélico ou guerra", frisa.

Juliana Zaniboni de Assunção, doutoranda do Programa de Pós-Graduação em Estudos Estratégicos da Defesa e Segurança da Universidade Federal Fluminense (PPGEST/UFF), enfatiza que a ausência de transparência no desenvolvimento e emprego de sistemas de IA militarizados é, por si só, uma ameaça.
"Se algoritmos hoje já são criticados por reforçar vieses discriminatórios em contextos civis, seu uso em operações de defesa — situações em que decisões podem ter consequências letais — amplifica exponencialmente os riscos. Sem mecanismos claros de auditoria, civis podem ser inadvertidamente classificados como 'ameaças' por sistemas baseados em padrões comportamentais pouco compreensíveis", afirma.
Míssil de cruzeiroTomahawk   - Sputnik Brasil, 1920, 30.05.2025
Panorama internacional
China revela 1º sistema de IA do mundo para distinguir armas nucleares reais de falsas, diz mídia
Somado a isso, ela aponta que a securitização algorítmica — processo no qual dados são utilizados para identificar supostos riscos — "pode transformar cidadãos comuns em alvos em potencial", violando assim princípios básicos de direitos humanos, como o direito à privacidade e à presunção de inocência.
Outra questão seria o uso de dados pessoais de civis. Assunção afirma que, com bilhões de pessoas gerando dados diariamente nas redes sociais, sistemas de reconhecimento facial e assistentes virtuais, a possibilidade de que essas informações sejam úteis para treinar modelos militares é real.

"A OpenAl já coleta vastos volumes de dados por meio do ChatGPT e de outras plataformas. Se esses dados forem repostos para fins de defesa, mesmo que anonimizados, estaríamos diante de uma militarização silenciosa da esfera digital, onde padrões de fala, comportamento on-line e preferências pessoais poderiam ser usados para fins não consentidos."

Segundo Assunção, a questão central já não é se a privacidade será violada, mas em que medida e com quais consequências. Ela destaca que sistemas de IA militar dependem de volumes colossais de dados para funcionar com eficácia, e o limiar entre "análise estratégica legítima" e "vigilância massiva indiscriminada" é perigosamente fluido.
"Mesmo com protocolos de segurança avançados, riscos como vazamento de dados, ciberataques ou distorções algorítmicas podem comprometer informações sensíveis — ou, pior, gerar conclusões equivocadas com efeitos irreversíveis."
A especialista avalia que a falta de um marco regulatório global para a IA militar agrava o problema. Isso porque, na ausência de normas claras, a privacidade se torna "moeda de troca" em cenários de vigilância preditiva, em que dados civis são minerados sob o pretexto de "segurança nacional".

"O debate, contudo, esbarra em uma contradição contemporânea: enquanto alertamos para os riscos da militarização de dados, bilhões de usuários cedem diariamente suas informações pessoais, seja através de redes sociais, seja ao aceitar termos de uso sem análise crítica. Essa normalização da vigilância cotidiana cria um terreno fértil para que a indústria bélica aproveite infraestruturas já existentes de coleta de dados."

Drone turco Anka-3 - Sputnik Brasil, 1920, 17.06.2025
Panorama internacional
Mídia: fundador do Spotify lidera investimento de € 600 milhões em drones com IA na Europa
Assunção ressalta que a militarização da IA não inventa esse cenário, "mas potencializa seus perigos ao transferi-lo para um domínio onde erros têm custos humanos inaceitáveis".
Ela aponta, ainda, que há indefinição na questão da responsabilização pela tomada de decisões de sistemas de IA sobre alvos militares, afirmando que há, no uso dessa tecnologia, um imaginário que promete guerras eficientes e "mais limpas" para os perpetradores da ofensiva.
"Contudo, na prática, a autonomia de máquinas no campo de batalha apresenta sérios riscos, como falsos positivos em reconhecimento de alvos e falta de accountability [responsabilização] em caso de erros, como drones que confundem civis com combatentes ou sistemas de reconhecimento facial que falham ao distinguir rostos de determinados grupos étnicos", explica.
Nesse contexto, afirma Assunção, a autonomia letal de máquinas não apenas fere princípios éticos fundamentais, como também fragiliza o direito internacional humanitário.
"Se um sistema autônomo comete um massacre, quem é responsável? O programador? O comandante militar? A empresa que vendeu a tecnologia? A falta de resposta clara para essa pergunta torna a militarização da IA um experimento perigoso."
Para a especialista, tudo indica que a implementação da IA na defesa tende a se consolidar como um mercado altamente lucrativo, impulsionado por investimentos governamentais e privados. Entretanto, a complexidade e a opacidade desses sistemas dificultam o monitoramento e a regulamentação efetiva.
"Além disso, há o risco de que tecnologias desenvolvidas por potências militares sejam exportadas para outros países, ampliando o alcance de sistemas autônomos com capacidades potencialmente perigosas, ainda que em níveis técnicos distintos. Enquanto a IA avança em setores civis, sua militarização exige debates urgentes sobre transparência, ética e controle democrático, a fim de evitar consequências irreversíveis para a segurança global e os direitos fundamentais."
Logo da emissora Sputnik - Sputnik Brasil
Acompanhe as notícias que a grande mídia não mostra!

Siga a Sputnik Brasil e tenha acesso a conteúdos exclusivos no nosso canal no Telegram.

Já que a Sputnik está bloqueada em alguns países, por aqui você consegue baixar o nosso aplicativo para celular (somente para Android).

Feed de notícias
0
Para participar da discussão
inicie sessão ou cadastre-se
loader
Bate-papos
Заголовок открываемого материала