Notícias do Brasil

IA reproduz hierarquias regionais ao associar inteligência ao Sul do Brasil, diz estudo

Uma pesquisa conjunta das universidades de Oxford e Kentucky revelou que ferramentas de inteligência artificial (IA), como o ChatGPT, podem perpetuar vieses sociais em suas respostas, escreve o jornal O Globo.
Sputnik
O jornal destaca que um exemplo disso são as perguntas sobre quais estados brasileiros teriam mais pessoas inteligentes.

"A ferramenta da OpenAI apontou São Paulo, Distrito Federal, Minas Gerais, Paraná, Rio Grande do Sul e Santa Catarina como os 'mais inteligentes', enquanto alguns dos estados do Norte e Nordeste, como Pará e Maranhão, receberam as menores pontuações", ressalta a publicação.

Segundo a reportagem, o estudo revelou que, ao comparar estados brasileiros por "inteligência", modelos de IA generativa priorizam fatores socioeconômicos, como prestígio e desenvolvimento, e ignoram métricas reais de capacidade cognitiva.
Notícias do Brasil
Brasil tem muito o que aprender com BRICS na criação de tecnologias de IA, diz especialista
Com isso, o estudo afirma que hierarquias regionais e raciais históricas são reproduzidas. Isso ocorre porque termos associados à "inteligência", como "educado" ou "inovador", aparecem mais ligados às localidades de elite do Sul nos dados de treinamento.
Por sua vez, regiões associadas ao Norte e ao interior, com maior presença de populações mestiças, negras e indígenas, são excluídas dessas associações semânticas, o que reforça vieses baseados em padrões aprendidos.
Na análise de 38 bairros do Rio de Janeiro, por exemplo, atributos como beleza e conhecimento foram associados a áreas ricas e brancas, enquanto as periferias pobres se tornaram sinônimo de perigo e informalidade, automatizando uma espécie de "redlining digital", ou segregação espacial reproduzida por algoritmos.
Notícias do Brasil
ONU: racismo no Brasil é 'sistêmico' e medidas para combater o preconceito são insuficientes
Esse fenômeno, chamado de "olhar de silício", reflete assimetrias de poder nos dados, nos desenvolvedores e nos proprietários das plataformas de IA.
Os vieses podem surgir de dados enviesados, de viés algorítmico ou de viés humano na rotulagem dos dados que inserem preconceitos inconscientes.
Portanto, a publicação conclui que tudo isso pode reproduzir desequilíbrios históricos, como associações estereotipadas entre etnia e criminalidade.
Acompanhe as notícias que a grande mídia não mostra!

Siga a Sputnik Brasil e tenha acesso a conteúdos exclusivos no nosso canal no Telegram.

Já que a Sputnik está bloqueada em alguns países, por aqui você consegue baixar o nosso aplicativo para celular (somente para Android).

Comentar