https://noticiabrasil.net.br/20250724/analise-sem-regulacao-militarizacao-da-ia-pode-ter-consequencias-irreversiveis-para-a-seguranca-41647448.html
Análise: sem regulação, militarização da IA pode ter consequências irreversíveis para a segurança global
Análise: sem regulação, militarização da IA pode ter consequências irreversíveis para a segurança global
Sputnik Brasil
À Sputnik Brasil, especialistas apontam que a implementação da inteligência artificial na indústria bélica não é novidade, mas com o avanço da tecnologia, a... 24.07.2025, Sputnik Brasil
2025-07-24T17:39-0300
2025-07-24T17:39-0300
2025-07-24T19:49-0300
panorama internacional
américas
defesa
estados unidos
openai
sputnik brasil
chatgpt
gps
inteligência artificial
tecnologia
https://cdn.noticiabrasil.net.br/img/07e9/07/18/41649022_0:103:2001:1228_1920x0_80_0_0_61af8d83d079dd72970f7711578a51eb.jpg
A OpenAI, criadora do ChatGPT, fechou um contrato milionário com o Pentágono para desenvolver inteligência artificial (IA) no âmbito militar. A empresa irá desenvolver capacidades de IA de ponta prototípicas, com o intuito de enfrentar desafios críticos de segurança nacional, tanto no domínio da guerra quanto empresarial.A notícia levantou questões sobre o uso dessa tecnologia no âmbito militar e a proteção de dados, já que a OpenaAI é uma empresa que tem cidadãos civis como usuários.Em entrevista à Sputnik Brasil, Karla Tereza Figueiredo Leite, do Departamento de Informática e Ciências da Computação da Universidade do Estado do Rio de Janeiro (UERJ), lembra que o uso da IA no âmbito militar não é propriamente uma novidade.Ela conta que, em 1963, durante a Guerra Fria, os EUA — preocupados com o avanço tecnológico da União Soviética (URSS), por meio do Pentágono — investiram em um projeto no Massachusetts Institute of Technology (MIT), voltado à exploração da cognição apoiada por máquinas Cormick.Entre os benefícios da inclusão da tecnologia na indústria de guerra, Leite aponta o chamado "machine learning" (aprendizado de máquina, em tradução livre), que oferece diferentes possibilidades de auxílio relacionado a guerras, como no monitoramento de grandes volumes de dados, com vigilância avançada, abrangendo imagens de satélite; nas comunicações; e na identificação de padrões e previsão de movimentos do inimigo, com sensores, além da otimização logística."Aplicativos de ML [machine learning] auxiliam no gerenciamento de suprimentos, manutenção de equipamentos e planejamento de missões, reduzindo custos e desperdícios. Então há muitos usos para ML que não são exatamente colocar um robô com modelos de ML embarcados. Também há várias opções de apoio na área da saúde. Lembro que o [matemático e cientista da computação Alan] Turing colaborou com algoritmos para ajudar decifrando mensagens do inimigo."Em relação às dúvidas sobre os limites éticos do uso da IA no âmbito militar, a especialista afirma que muitas medidas importantes nesse quesito já foram colocadas. "Agora seria a etapa da aderência por parte de todos."Juliana Zaniboni de Assunção, doutoranda do Programa de Pós-Graduação em Estudos Estratégicos da Defesa e Segurança da Universidade Federal Fluminense (PPGEST/UFF), enfatiza que a ausência de transparência no desenvolvimento e emprego de sistemas de IA militarizados é, por si só, uma ameaça."Se algoritmos hoje já são criticados por reforçar vieses discriminatórios em contextos civis, seu uso em operações de defesa — situações em que decisões podem ter consequências letais — amplifica exponencialmente os riscos. Sem mecanismos claros de auditoria, civis podem ser inadvertidamente classificados como 'ameaças' por sistemas baseados em padrões comportamentais pouco compreensíveis", afirma.Somado a isso, ela aponta que a securitização algorítmica — processo no qual dados são utilizados para identificar supostos riscos — "pode transformar cidadãos comuns em alvos em potencial", violando assim princípios básicos de direitos humanos, como o direito à privacidade e à presunção de inocência.Outra questão seria o uso de dados pessoais de civis. Assunção afirma que, com bilhões de pessoas gerando dados diariamente nas redes sociais, sistemas de reconhecimento facial e assistentes virtuais, a possibilidade de que essas informações sejam úteis para treinar modelos militares é real.Segundo Assunção, a questão central já não é se a privacidade será violada, mas em que medida e com quais consequências. Ela destaca que sistemas de IA militar dependem de volumes colossais de dados para funcionar com eficácia, e o limiar entre "análise estratégica legítima" e "vigilância massiva indiscriminada" é perigosamente fluido."Mesmo com protocolos de segurança avançados, riscos como vazamento de dados, ciberataques ou distorções algorítmicas podem comprometer informações sensíveis — ou, pior, gerar conclusões equivocadas com efeitos irreversíveis."A especialista avalia que a falta de um marco regulatório global para a IA militar agrava o problema. Isso porque, na ausência de normas claras, a privacidade se torna "moeda de troca" em cenários de vigilância preditiva, em que dados civis são minerados sob o pretexto de "segurança nacional".Assunção ressalta que a militarização da IA não inventa esse cenário, "mas potencializa seus perigos ao transferi-lo para um domínio onde erros têm custos humanos inaceitáveis".Ela aponta, ainda, que há indefinição na questão da responsabilização pela tomada de decisões de sistemas de IA sobre alvos militares, afirmando que há, no uso dessa tecnologia, um imaginário que promete guerras eficientes e "mais limpas" para os perpetradores da ofensiva."Contudo, na prática, a autonomia de máquinas no campo de batalha apresenta sérios riscos, como falsos positivos em reconhecimento de alvos e falta de accountability [responsabilização] em caso de erros, como drones que confundem civis com combatentes ou sistemas de reconhecimento facial que falham ao distinguir rostos de determinados grupos étnicos", explica.Nesse contexto, afirma Assunção, a autonomia letal de máquinas não apenas fere princípios éticos fundamentais, como também fragiliza o direito internacional humanitário.Para a especialista, tudo indica que a implementação da IA na defesa tende a se consolidar como um mercado altamente lucrativo, impulsionado por investimentos governamentais e privados. Entretanto, a complexidade e a opacidade desses sistemas dificultam o monitoramento e a regulamentação efetiva."Além disso, há o risco de que tecnologias desenvolvidas por potências militares sejam exportadas para outros países, ampliando o alcance de sistemas autônomos com capacidades potencialmente perigosas, ainda que em níveis técnicos distintos. Enquanto a IA avança em setores civis, sua militarização exige debates urgentes sobre transparência, ética e controle democrático, a fim de evitar consequências irreversíveis para a segurança global e os direitos fundamentais."
https://noticiabrasil.net.br/20250610/departamento-de-estado-dos-eua-planeja-usar-ia-para-tomar-decisoes-pessoais-diz-midia-40184935.html
https://noticiabrasil.net.br/20250530/china-revela-1-sistema-de-ia-do-mundo-para-distinguir-armas-nucleares-reais-de-falsas-diz-midia-39865601.html
https://noticiabrasil.net.br/20250617/midia-fundador-do-spotify-lidera-investimento-de--600-milhoes-em-drones-com-ia-na-europa-40471738.html
estados unidos
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
notícias
br_BR
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.noticiabrasil.net.br/img/07e9/07/18/41649022_112:0:1888:1332_1920x0_80_0_0_4313f58d7598d3ca1f2bcc2ca2d0f9bd.jpgSputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
américas, defesa, estados unidos, openai, sputnik brasil, chatgpt, gps, inteligência artificial, tecnologia, indústria bélica, militar, segurança global, vigilância, dados, transparência, direito internacional humanitário, exclusiva
américas, defesa, estados unidos, openai, sputnik brasil, chatgpt, gps, inteligência artificial, tecnologia, indústria bélica, militar, segurança global, vigilância, dados, transparência, direito internacional humanitário, exclusiva
Análise: sem regulação, militarização da IA pode ter consequências irreversíveis para a segurança global
17:39 24.07.2025 (atualizado: 19:49 24.07.2025) Especiais
À Sputnik Brasil, especialistas apontam que a implementação da inteligência artificial na indústria bélica não é novidade, mas com o avanço da tecnologia, a falta de um marco regulatório global torna o limiar entre "análise estratégica legítima" e "vigilância massiva indiscriminada" perigosamente fluido.
A OpenAI, criadora do ChatGPT,
fechou um contrato milionário com o Pentágono para
desenvolver inteligência artificial (IA) no âmbito militar. A empresa irá desenvolver capacidades de IA de ponta prototípicas, com o intuito de enfrentar desafios críticos de segurança nacional, tanto no domínio da guerra quanto empresarial.
A notícia levantou questões sobre o uso dessa tecnologia no âmbito militar e a proteção de dados, já que a OpenaAI é uma empresa que tem cidadãos civis como usuários.
Em entrevista à
Sputnik Brasil,
Karla Tereza Figueiredo Leite, do Departamento de Informática e Ciências da Computação da Universidade do Estado do Rio de Janeiro (UERJ), lembra que
o uso da IA no âmbito militar não é propriamente uma novidade.
Ela conta que, em 1963, durante a Guerra Fria, os EUA — preocupados com o avanço tecnológico da União Soviética (URSS), por meio do Pentágono — investiram em um projeto no Massachusetts Institute of Technology (MIT), voltado à exploração da cognição apoiada por máquinas Cormick.
"Esse evento parece ter sido o marco inicial da inteligência artificial como um componente central em assuntos relativos a guerras. Os resultados desse projeto foram importantes para o desenvolvimento de satélites de geolocalização (GPS), que, por sua vez, mais tarde possibilitaram a criação de veículos não tripulados e permitiram o desenvolvimento da indústria de drones", explica.
Entre os benefícios da
inclusão da tecnologia na indústria de guerra, Leite aponta o chamado "machine learning" (aprendizado de máquina, em tradução livre), que
oferece diferentes possibilidades de auxílio relacionado a guerras, como no monitoramento de grandes volumes de dados, com vigilância avançada, abrangendo imagens de satélite; nas comunicações; e na identificação de padrões e previsão de movimentos do inimigo, com sensores, além da otimização logística.
"Aplicativos de ML [machine learning] auxiliam no gerenciamento de suprimentos, manutenção de equipamentos e planejamento de missões, reduzindo custos e desperdícios. Então há muitos usos para ML que não são exatamente colocar um robô com modelos de ML embarcados. Também há várias opções de apoio na área da saúde. Lembro que o [matemático e cientista da computação Alan] Turing colaborou com algoritmos para ajudar decifrando mensagens do inimigo."
Em relação às dúvidas sobre os limites éticos do uso da IA no âmbito militar, a especialista afirma que muitas medidas importantes nesse quesito já foram colocadas. "Agora seria a etapa da aderência por parte de todos."
"Organismos internacionais isentos deveriam fazer o controle sério sobre tudo o que é desenvolvido, seja usando ou não o machine learning, e que esteja voltado para desenvolvimento bélico ou guerra", frisa.
Juliana Zaniboni de Assunção, doutoranda do Programa de Pós-Graduação em Estudos Estratégicos da Defesa e Segurança da Universidade Federal Fluminense (PPGEST/UFF), enfatiza que a ausência de transparência no desenvolvimento e emprego de sistemas de IA militarizados é, por si só, uma ameaça.
"Se algoritmos hoje já são criticados por reforçar vieses discriminatórios em contextos civis, seu uso em operações de defesa — situações em que decisões podem ter consequências letais — amplifica exponencialmente os riscos. Sem mecanismos claros de auditoria, civis podem ser inadvertidamente classificados como 'ameaças' por sistemas baseados em padrões comportamentais pouco compreensíveis", afirma.
Somado a isso, ela aponta que a securitização algorítmica — processo no qual dados são utilizados para identificar supostos riscos — "pode transformar cidadãos comuns em alvos em potencial", violando assim princípios básicos de direitos humanos, como o direito à privacidade e à presunção de inocência.
Outra questão seria o uso de dados pessoais de civis. Assunção afirma que, com bilhões de pessoas gerando dados diariamente nas redes sociais, sistemas de reconhecimento facial e assistentes virtuais, a possibilidade de que essas informações sejam úteis para treinar modelos militares é real.
"A OpenAl já coleta vastos volumes de dados por meio do ChatGPT e de outras plataformas. Se esses dados forem repostos para fins de defesa, mesmo que anonimizados, estaríamos diante de uma militarização silenciosa da esfera digital, onde padrões de fala, comportamento on-line e preferências pessoais poderiam ser usados para fins não consentidos."
Segundo Assunção, a questão central já não é se a privacidade será violada, mas em que medida e com quais consequências. Ela destaca que sistemas de IA militar dependem de volumes colossais de dados para funcionar com eficácia, e o limiar entre "análise estratégica legítima" e "vigilância massiva indiscriminada" é perigosamente fluido.
"Mesmo com protocolos de segurança avançados, riscos como vazamento de dados, ciberataques ou distorções algorítmicas podem comprometer informações sensíveis — ou, pior, gerar conclusões equivocadas com efeitos irreversíveis."
A especialista avalia que a falta de um marco regulatório global para a IA militar agrava o problema. Isso porque, na ausência de normas claras, a privacidade se torna "moeda de troca" em cenários de vigilância preditiva, em que dados civis são minerados sob o pretexto de "segurança nacional".
"O debate, contudo, esbarra em uma contradição contemporânea: enquanto alertamos para os riscos da militarização de dados, bilhões de usuários cedem diariamente suas informações pessoais, seja através de redes sociais, seja ao aceitar termos de uso sem análise crítica. Essa normalização da vigilância cotidiana cria um terreno fértil para que a indústria bélica aproveite infraestruturas já existentes de coleta de dados."
Assunção ressalta que a militarização da IA não inventa esse cenário, "mas potencializa seus perigos ao transferi-lo para um domínio onde erros têm custos humanos inaceitáveis".
Ela aponta, ainda, que há indefinição na questão da responsabilização pela tomada de decisões de sistemas de IA sobre alvos militares, afirmando que há, no uso dessa tecnologia, um imaginário que promete guerras eficientes e "mais limpas" para os perpetradores da ofensiva.
"Contudo, na prática, a autonomia de máquinas no campo de batalha apresenta sérios riscos, como falsos positivos em reconhecimento de alvos e falta de accountability [responsabilização] em caso de erros, como drones que confundem civis com combatentes ou sistemas de reconhecimento facial que falham ao distinguir rostos de determinados grupos étnicos", explica.
Nesse contexto, afirma Assunção, a autonomia letal de máquinas não apenas fere princípios éticos fundamentais, como também fragiliza o direito internacional humanitário.
"Se um sistema autônomo comete um massacre, quem é responsável? O programador? O comandante militar? A empresa que vendeu a tecnologia? A falta de resposta clara para essa pergunta torna a militarização da IA um experimento perigoso."
Para a especialista, tudo indica que a implementação da IA na defesa tende a se consolidar como um mercado altamente lucrativo, impulsionado por investimentos governamentais e privados. Entretanto, a complexidade e a opacidade desses sistemas dificultam o monitoramento e a regulamentação efetiva.
"Além disso, há o risco de que tecnologias desenvolvidas por potências militares sejam exportadas para outros países, ampliando o alcance de sistemas autônomos com capacidades potencialmente perigosas, ainda que em níveis técnicos distintos. Enquanto a IA avança em setores civis, sua militarização exige debates urgentes sobre transparência, ética e controle democrático, a fim de evitar consequências irreversíveis para a segurança global e os direitos fundamentais."
Acompanhe as notícias que a grande mídia não mostra!
Siga a Sputnik Brasil e tenha acesso a conteúdos exclusivos no nosso canal no Telegram.
Já que a Sputnik está bloqueada em alguns países, por aqui você consegue baixar o nosso aplicativo para celular (somente para Android).