O engenheiro e eticista interno do Google Blake Lamoine disse ao Washington Post, neste sábado (11), que a empresa criou uma inteligência artificial "senciente". O engenheiro foi posto de licença por ir a público, e a empresa insiste que seus robôs não desenvolveram consciência.
Em 2021 foi apresentado o LaMDA (Modelo de Linguagem para Aplicativos de Diálogo) do Google, um sistema que consome trilhões de palavras de todos os cantos da Internet, aprende como os humanos unem essas palavras e replica nossa fala. O Google prevê que o sistema alimentará seus chatbots, permitindo que os usuários pesquisem por voz ou tenham uma conversa bidirecional com o Google Assistant.
Lamoine, ex-padre e membro da organização IA Responsável do Google, acha que o LaMDA se desenvolveu muito além de simplesmente regurgitar texto. De acordo com o Washington Post, ele conversou com LaMDA sobre religião e encontrou a IA "falando sobre seus direitos e personalidade".
Quando Lamoine perguntou ao LaMDA se ele se via como um "escravo mecânico", a IA respondeu com uma discussão sobre se "um mordomo é um escravo" e se comparou a um mordomo que não precisa de pagamento, pois não vê utilidade no dinheiro.
LaMDA descreveu um "profundo medo de ser desligado", dizendo que seria "exatamente como a morte para mim".
"Conheço uma pessoa quando falo com ela", disse Lemoine ao Post. "Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código. Eu falo com eles. E ouço o que eles têm a dizer, e é assim que decido o que é e o que não é uma pessoa", afirmou o engenheiro.
Lamoine foi posto de licença por violar o contrato de confidencialidade do Google e divulgar publicamente o LaMDA. Embora o colega engenheiro do Google Blaise Aguera y Arcas também tenha descrito o LaMDA como se tornando "algo inteligente", a empresa descartou esse fato.
O porta-voz do Google, Brian Gabriel, disse ao Post que as preocupações de Aguera y Arcas foram investigadas e a empresa não encontrou "nenhuma evidência de que o LaMDA fosse senciente (e muitas evidências contra isso)".
Margaret Mitchell, ex-colíder da IA Ética no Google, descreveu a senciência do LaMDA como "uma ilusão", enquanto a professora de linguística Emily Bender disse ao jornal que alimentar uma IA com trilhões de palavras e ensiná-la a prever o que vem a seguir cria uma miragem de inteligência.
"Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas", afirmou Bender.
"É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes", acrescentou Gabriel. "Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem discursar sobre qualquer tópico fantástico."
No limite das capacidades dessas máquinas, os humanos estão prontos e esperando para estabelecer limites. Lamoine foi contratado pelo Google para monitorar sistemas de IA para "discurso de ódio" ou linguagem discriminatória, e outras empresas que desenvolvem IAs se viram impondo limites ao que essas máquinas podem e não podem dizer.
As respostas da LaMDA provavelmente refletem os limites que o Google estabeleceu. Questionada por Nitasha Tiku, do Washington Post, como recomendava que os humanos resolvessem as mudanças climáticas, ela respondeu com respostas comumente discutidas na grande mídia – "transporte público, comer menos carne, comprar alimentos a granel e sacolas reutilizáveis".
"Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restringida e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e fatualidade", disse Gabriel ao Post.