Conhecida internamente como Gênesis, a ferramenta é capaz de gerar notícias com base em detalhes de eventos atuais, disseram as fontes.
A empresa supostamente a vê como "tecnologia responsável" - um meio-termo para organizações de notícias não interessadas em substituir sua equipe humana por IA generativa.
Alguns executivos que viram a proposta do Google a descreveram como "perturbadora". Dois insiders disseram ao jornal que foi feito um esforço para produzir notícias não apenas precisas, mas bem escritas.
Uma porta-voz do Google insistiu que o Gênesis "não tem a intenção de [...] substituir o papel essencial que os jornalistas têm na reportagem, criação e verificação de fatos de seus artigos", mas poderia oferecer opções para títulos e outros estilos de escrita.
Assim, uma fonte disse que o Google vê o Genesis como mais um "assistente pessoal para jornalistas", capaz de automatizar tarefas rotineiras para que o escritor pudesse se concentrar em tarefas mais exigentes, como entrevistar e fazer reportagens de campo.
A descoberta de que o Google estava trabalhando em um ChatGPT para jornalismo provocou preocupação generalizada de que o Gênesis poderia abrir uma caixa de Pandora de notícias falsas.
Por exemplo, o chatbot de IA do Google, Bard, rapidamente se tornou famoso por criar informações falsas e oferecê-las como verdade após sua introdução no início deste ano, e o CEO Sundar Pichai admitiu que, embora essas "alucinações" pareçam ser endêmicas entre os grandes modelos de linguagem de IA, ninguém sabe o que os causa ou como manter uma IA rigorosa e honesta.
Pior ainda, o Gênesis poderia marginalizar notícias reais caso o Google incentive sua adoção ajustando seus algoritmos de pesquisa para priorizar o conteúdo gerado por IA, tuitou o editor de rádio Gabe Rosenberg em resposta ao artigo do The New York Times.