Isso graças à utilização de 1,75 trilhão de parâmetros, enquanto o modelo GPT-3 da empresa OpenAI, de Elon Musk, utiliza apenas 175 bilhões de parâmetros, um número muito inferior ao alcançado pela Academia de Inteligência Artificial de Pequim.
Além disso, supera os 1,6 bilhão de parâmetros da Switch Transformer da Google, projeto que estabeleceu um recorde, hoje ultrapassado pelo WuDao 2.0.
"O WuDao 2.0 tem como objetivo permitir que as máquinas pensem como humanos e alcancem capacidades cognitivas mais além do teste de Turing [...] O caminho até a IA passa por grandes modelos e supercomputadores", observou Tang Jie, subdiretor da Academia de Inteligência Artificial de Pequim.
O WuDao 2.0 possui capacidades únicas, destacando-se nos campos de reconhecimento e geração de imagens ou na predição de estruturas 3D de proteínas. Além disso, pode escrever ensaios, poemas e canções em inglês e chinês tradicional.
Estas capacidades foram treinadas com 4,9 terabytes de imagens e textos, incluindo 1,2 terabyte de textos em inglês e chinês.
Estes modelos sofisticados, treinados com gigantescos conjuntos de dados, requerem apenas uma pequena quantidade de novos dados quando usados para uma função específica, porque podem transferir o conhecimento já aprendido para novas tarefas, assim como os humanos", disse Blake Yan, um pesquisador da academia.
"O que estamos construindo é uma usina de energia para o futuro da inteligência artificial, com mega-dados, mega-potência de computação e mega-modelos; podemos transformar dados para alimentar as aplicações de inteligência artificial do futuro", afirmou Zhang Hongjiang, presidente da Academia de Inteligência Artificial de Pequim.