Em duas postagens publicadas na quarta-feira (30), o Centro Nacional de Segurança Cibernética do Reino Unido (NCSC, na sigla em inglês) afirmou que os especialistas ainda não haviam se familiarizado com os possíveis problemas de segurança ligados a algoritmos que podem gerar interações que parecem humanas através de grandes modelos de linguagem (LLM, na sigla em inglês).
De acordo com a Reuters, as ferramentas alimentadas por inteligência artificial (IA) como chatbots, estão sendo usadas precocemente, substituindo pesquisas on-line e o trabalho de atendimento ao cliente no setor de vendas.
Para o NCSC, a prática poderia trazer riscos, especialmente se os modelos fossem conectados a outros elementos de negócios da organização. O NCSC se baseou em pesquisas acadêmicas que demonstraram maneiras de subverter os chatbots através de linhas de comando desonestas ou enganando-os para que contornassem suas próprias barreiras de proteção integradas.
Um hacker conseguiria induzir um chatbot com tecnologia de IA implantado por um banco, por exemplo, a fazer uma transação não autorizada.
"As organizações que criam serviços que usam LLMs precisam ter cuidado, da mesma forma que teriam se estivessem usando um produto ou uma biblioteca de códigos que estivesse em [versão] beta", disse o NCSC em uma postagem de seu blog, referindo-se a lançamentos de software experimental.
De acordo com a organização, este tipo de recurso tecnológico não deveria ser envolvido na realização de transações em nome de clientes porque ainda seria difícil confiar nele integralmente, um cuidado que também deve ser aplicado aos LLMs.
Autoridades de todo o mundo estão lutando com a ascensão de recursos de IA como o ChatGPT da OpenAI, que as empresas estão tentando incorporar em uma vasta gama de serviços, incluindo vendas e atendimento ao cliente. De acordo com autoridades dos EUA e do Canadá, as implicações de segurança da IA precisam ser levadas em conta na medida em que hackers podem adotar o uso das ferramentas.
Uma pesquisa recente da Reuters/Ipsos descobriu que muitos funcionários corporativos estavam usando ferramentas como o ChatGPT para ajudar em tarefas básicas, como redigir e-mails, resumir documentos e fazer pesquisas preliminares.
Segundo a pesquisa, cerca de 10% dos entrevistados disseram que os seus chefes proibiram explicitamente ferramentas externas de IA, enquanto um quarto não sabia se a sua empresa permitia o uso da tecnologia.