https://noticiabrasil.net.br/20230831/autoridades-britanicas-dizem-que-chatbots-de-ia-podem-trazer-riscos-ciberneticos-diz-midia-30117541.html
Autoridades britânicas dizem que chatbots de IA podem trazer riscos cibernéticos, diz mídia
Autoridades britânicas dizem que chatbots de IA podem trazer riscos cibernéticos, diz mídia
Sputnik Brasil
As autoridades britânicas estão alertando organizações sobre a integração de chatbots baseados em inteligência artificial aos seus negócios. Segundo o Centro... 31.08.2023, Sputnik Brasil
2023-08-31T19:21-0300
2023-08-31T19:21-0300
2023-08-31T19:21-0300
ciência e sociedade
inteligência artificial
chatgpt
chatbot
ciência e tecnologia
tecnologias de ponta
perigo
reuters
hackers
risco
https://cdn.noticiabrasil.net.br/img/07e7/06/19/29355946_0:0:3639:2047_1920x0_80_0_0_d18b5aaf870afced2379a47f04d7c477.jpg
Em duas postagens publicadas na quarta-feira (30), o Centro Nacional de Segurança Cibernética do Reino Unido (NCSC, na sigla em inglês) afirmou que os especialistas ainda não haviam se familiarizado com os possíveis problemas de segurança ligados a algoritmos que podem gerar interações que parecem humanas através de grandes modelos de linguagem (LLM, na sigla em inglês). De acordo com a Reuters, as ferramentas alimentadas por inteligência artificial (IA) como chatbots, estão sendo usadas precocemente, substituindo pesquisas on-line e o trabalho de atendimento ao cliente no setor de vendas. Para o NCSC, a prática poderia trazer riscos, especialmente se os modelos fossem conectados a outros elementos de negócios da organização. O NCSC se baseou em pesquisas acadêmicas que demonstraram maneiras de subverter os chatbots através de linhas de comando desonestas ou enganando-os para que contornassem suas próprias barreiras de proteção integradas. Um hacker conseguiria induzir um chatbot com tecnologia de IA implantado por um banco, por exemplo, a fazer uma transação não autorizada. De acordo com a organização, este tipo de recurso tecnológico não deveria ser envolvido na realização de transações em nome de clientes porque ainda seria difícil confiar nele integralmente, um cuidado que também deve ser aplicado aos LLMs. Autoridades de todo o mundo estão lutando com a ascensão de recursos de IA como o ChatGPT da OpenAI, que as empresas estão tentando incorporar em uma vasta gama de serviços, incluindo vendas e atendimento ao cliente. De acordo com autoridades dos EUA e do Canadá, as implicações de segurança da IA precisam ser levadas em conta na medida em que hackers podem adotar o uso das ferramentas. Uma pesquisa recente da Reuters/Ipsos descobriu que muitos funcionários corporativos estavam usando ferramentas como o ChatGPT para ajudar em tarefas básicas, como redigir e-mails, resumir documentos e fazer pesquisas preliminares. Segundo a pesquisa, cerca de 10% dos entrevistados disseram que os seus chefes proibiram explicitamente ferramentas externas de IA, enquanto um quarto não sabia se a sua empresa permitia o uso da tecnologia.
https://noticiabrasil.net.br/20230526/reino-unido-testa-uso-militar-de-inteligencia-artificial-com-os-eua-e-a-australia-28998756.html
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
notícias
br_BR
Sputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.noticiabrasil.net.br/img/07e7/06/19/29355946_698:0:3427:2047_1920x0_80_0_0_0e2f43283f1f0affccc9e578b49692fe.jpgSputnik Brasil
contato.br@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
inteligência artificial, chatgpt, chatbot, ciência e tecnologia, tecnologias de ponta, perigo, reuters, hackers, risco
inteligência artificial, chatgpt, chatbot, ciência e tecnologia, tecnologias de ponta, perigo, reuters, hackers, risco
Autoridades britânicas dizem que chatbots de IA podem trazer riscos cibernéticos, diz mídia
As autoridades britânicas estão alertando organizações sobre a integração de chatbots baseados em inteligência artificial aos seus negócios. Segundo o Centro Nacional de Segurança Cibernética do Reino Unido, pesquisas têm demonstrado que os sistemas podem ser induzidos a realizar tarefas danosas.
Em duas postagens
publicadas na quarta-feira (30), o Centro Nacional de Segurança Cibernética do Reino Unido (NCSC, na sigla em inglês) afirmou que os especialistas
ainda não haviam se familiarizado com os possíveis problemas de segurança ligados a algoritmos que podem gerar interações que parecem humanas através de grandes modelos de linguagem (LLM, na sigla em inglês).
De
acordo com a Reuters, as ferramentas alimentadas por inteligência artificial (IA) como chatbots,
estão sendo usadas precocemente, substituindo pesquisas on-line e o trabalho de atendimento ao cliente no setor de vendas.
Para o NCSC, a prática poderia
trazer riscos, especialmente se os modelos fossem conectados a outros elementos de negócios da organização. O NCSC se baseou em pesquisas acadêmicas que demonstraram
maneiras de subverter os chatbots através de linhas de comando desonestas ou enganando-os para que contornassem suas próprias barreiras de proteção integradas.
Um hacker conseguiria induzir um chatbot com tecnologia de IA implantado por um banco, por exemplo, a fazer uma transação não autorizada.
"As organizações que criam serviços que usam LLMs precisam ter cuidado, da mesma forma que teriam se estivessem usando um produto ou uma biblioteca de códigos que estivesse em [versão] beta", disse o NCSC em uma postagem de seu blog, referindo-se a lançamentos de software experimental.
De acordo com a organização, este tipo de
recurso tecnológico não deveria ser envolvido na realização de transações em nome de clientes porque ainda seria difícil confiar nele integralmente, um cuidado que também deve ser aplicado aos LLMs.
Autoridades de todo o mundo
estão lutando com a ascensão de recursos de IA como o ChatGPT da OpenAI, que as empresas estão
tentando incorporar em uma vasta gama de serviços, incluindo vendas e atendimento ao cliente. De acordo com autoridades dos EUA e do Canadá, as implicações de segurança da IA precisam ser levadas em conta na medida em que hackers podem adotar o uso das ferramentas.
Uma
pesquisa recente da Reuters/Ipsos descobriu que muitos funcionários corporativos estavam
usando ferramentas como o ChatGPT para ajudar em tarefas básicas, como redigir e-mails, resumir documentos e fazer pesquisas preliminares.
Segundo a pesquisa, cerca de
10% dos entrevistados disseram que os seus chefes proibiram explicitamente
ferramentas externas de IA, enquanto um quarto não sabia se a sua empresa permitia o uso da tecnologia.