Embora existam áreas em que a IA pode ser benéfica, também há muitas coisas ligadas a ela que podem "dar errado", reconheceu o CEO e cofundador da OpenAI, Sam Altman.
"Trabalhamos com tecnologia perigosa que pode ser usada de maneiras perigosas com muita frequência", disse Altman durante a cúpula.
Segundo o empresário e programador norte-americano, cuja empresa OpenAI foi avaliada em mais de US$ 27 bilhões (cerca de R$ 129,2 bilhões), os "benefícios superam os custos" da nova tecnologia. Altman destacou áreas como ciência, educação e medicina como campos promissores de aplicação para os avanços da IA, acrescentando achar "que seria bom acabar com a pobreza, mas teremos que administrar os riscos para alcançá-la".
O empresário também falou sobre os pedidos dos legisladores para regulamentar a inteligência artificial e afirmou que "a regulamentação global pode ajudar a torná-la segura, o que é uma resposta melhor do que pará-la".
Sam Altman elogiou o enorme sucesso dos produtos OpenAI, como o chatbot ChatGPT e o gerador de imagens Dall-E, insistindo que sua preocupação com a IA no momento "não é sobre dinheiro".
"Eu tenho dinheiro suficiente. [...] Esse conceito de ter dinheiro suficiente não é algo fácil para outras pessoas superarem", explicou Altman, destacando que construir as chamadas "grades de proteção" para o uso de IA é um dos passos "mais importantes" que "a humanidade tem a alcançar com a tecnologia".
Altman também falou sobre os recentes avisos do CEO da Tesla, Elon Musk, sobre o potencial prejudicial da IA. Musk, que cofundou a OpenAI com Altman, "se preocupa muito com a segurança da IA", enfatizou o guru da tecnologia, acrescentando que as bandeiras vermelhas "vieram de um bom lugar".
Anteriormente, centenas de pesquisadores de inteligência artificial e executivos de tecnologia haviam assinado um aviso severo de que a IA representa uma ameaça existencial para a humanidade.
"Mitigar o risco de extinção [da humanidade] da IA deve ser uma prioridade global, juntamente com outros riscos sociais, como pandemias e guerra nuclear", alerta o comunicado divulgado no dia 30 de maio.
O lançamento trazia as assinaturas de alguns dos maiores nomes da indústria, incluindo Altman; o padrinho da IA, Geoffrey Jinton; o diretor do Centro de Segurança de IA, Dan Jendrycks, e executivos seniores da Microsoft e do Google.
Outra carta pública emitida em março reuniu as assinaturas de mais de 1.000 acadêmicos, empresários e especialistas em tecnologia pedindo uma pausa no desenvolvimento da IA até que ela possa ser regulamentada e gerenciada com responsabilidade.