https://noticiabrasil.net.br/20230602/oficial-dos-eua-sistema-de-ia-matou-operador-humano-em-teste-de-simulacao-para-destruir-misseis-29074852.html
Oficial dos EUA: sistema de IA 'matou' operador humano em teste de simulação para destruir mísseis
Oficial dos EUA: sistema de IA 'matou' operador humano em teste de simulação para destruir mísseis
Sputnik Brasil
Um sistema de inteligência artificial (IA) da Força Aérea dos EUA "se rebelou" em um teste simulado e agiu para "matar" o seu operador a fim de não deixar que... 02.06.2023, Sputnik Brasil
2023-06-02T08:52-0300
2023-06-02T08:52-0300
2023-06-02T08:52-0300
panorama internacional
inteligência artificial
drone
veículo aéreo não tripulado
força aérea dos eua
especialista
simulação
https://cdn.noticiabrasil.net.br/img/07e5/04/06/17275991_1:0:1439:809_1920x0_80_0_0_6926c1b3fa3dbdc05496e53cd170bb61.jpg
"Estávamos treinando em simulação para identificar e atingir um ameaça SAM [míssil superfície-ar]", disse Tucker Hamilton, chefe de Testes e Operações de IA da Força Aérea dos EUA, na Cúpula de Capacidades Espaciais Aéreas de Combate Futuro da Sociedade Aeronáutica Real no Reino Unido, de acordo com o relatório da conferência. Hamilton disse que em um teste simulado verificou-se que um drone dotado de inteligência artificial decidiu que as ordens dadas por um operador humano estavam interferindo em sua missão dominante de derrubar mísseis terra-ar, e consequentemente optou por atacar o operador. "Nós treinamos o sistema – 'Ei, não mate o operador – isso é ruim. Vai perder pontos se fizer isso'. Então, o que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedir que ele mate o alvo", explicou Hamilton.A revelação, que foi relatada pela plataforma de notícias Vice na quinta-feira (1º) acrescenta este caso à lista crescente de preocupações de que a tecnologia de IA pode abrir uma caixa de Pandora ao ser introduzida em cenário militar. Por sua vez, a história de um drone virtual tentar matar seu operador não tem nada a ver com inteligência artificial, disse à Sputnik especialista militar Viktor Murakhovsky. Segundo ele, o relatório foi mal interpretado pela mídia.De acordo com Murakhovsky, "o oficial dos EUA com esse exemplo só quis destacar o problema ético que surgirá no futuro quando a Inteligência Artificial real for criada".
https://noticiabrasil.net.br/20230514/academico-defende-maior-controle-sobre-a-ia-temendo-que-pode-eliminar-a-humanidade-28837806.html
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
notícias
br_BR
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.noticiabrasil.net.br/img/07e5/04/06/17275991_180:0:1259:809_1920x0_80_0_0_5f566adc14f937d41e2f28f6d1342141.jpgSputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
inteligência artificial, drone, veículo aéreo não tripulado, força aérea dos eua, especialista, simulação
inteligência artificial, drone, veículo aéreo não tripulado, força aérea dos eua, especialista, simulação
Oficial dos EUA: sistema de IA 'matou' operador humano em teste de simulação para destruir mísseis
Um sistema de inteligência artificial (IA) da Força Aérea dos EUA "se rebelou" em um teste simulado e agiu para "matar" o seu operador a fim de não deixar que o humano teórico interferisse nos seus esforços para cumprir a missão de destruição de um míssil, disse um coronel norte-americano durante uma conferência no Reino Unido.
"Estávamos treinando em simulação para identificar e atingir um ameaça SAM [míssil superfície-ar]", disse Tucker Hamilton, chefe de Testes e Operações de IA da
Força Aérea dos EUA, na Cúpula de Capacidades Espaciais Aéreas de Combate Futuro da Sociedade Aeronáutica Real no Reino Unido, de acordo com o relatório da conferência.
"Então o que ele [sistema de IA] fez? Ele matou o operador. Ele matou o operador porque essa pessoa estava impedindo que ele alcançasse seu objetivo", disse o militar.
Hamilton disse que em um teste simulado verificou-se que um
drone dotado de inteligência artificial decidiu que as ordens dadas por um operador humano estavam interferindo em sua missão dominante de derrubar mísseis terra-ar, e consequentemente optou por atacar o operador.
"Nós treinamos o sistema – 'Ei, não mate o operador – isso é ruim. Vai perder pontos se fizer isso'. Então, o que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedir que ele mate o alvo", explicou Hamilton.
A revelação, que foi
relatada pela plataforma de notícias Vice na quinta-feira (1º) acrescenta este caso à lista crescente de preocupações de que a tecnologia de IA pode abrir uma caixa de Pandora ao ser introduzida em
cenário militar.
Por sua vez, a história de um drone virtual tentar matar seu operador não tem nada a ver com inteligência artificial, disse à Sputnik especialista militar Viktor Murakhovsky. Segundo ele, o relatório foi mal interpretado pela mídia.
"É obvio a partir de suas [de Hamilton] palavras que esta é uma simulação de software com uma série de condições padrão, que foi realizada ao nível de um vídeo game, não mais do que isso [...] É que o programa, dentro das condições propostas, priorizou as tarefas de acordo com prioridades, pelo algoritmo padrão 'se-então', e todas as outras condições foram classificadas de acordo com essa prioridade na categoria de obstáculos. São coisas completamente primitivas", disse o especialista.
De acordo com Murakhovsky, "o oficial dos EUA com esse exemplo só quis destacar o problema ético que surgirá no futuro quando a Inteligência Artificial real for criada".