Algoritmos da branquitude: vieses e representações racistas em inteligências artificiais

Lumina

Endereço:
FACOM - Universidade Federal de Juiz de ForaRua Professor Lourenço Kelmer, s/nCampus Martelos
Juiz de Fora / MG
36036-330
Site: https://periodicos.ufjf.br/index.php/lumina
Telefone: (32) 2102-3601
ISSN: 19814070
Editor Chefe: Gabriela Borges Martins Caravela
Início Publicação: 31/05/2007
Periodicidade: Quadrimestral
Área de Estudo: Comunicação

Algoritmos da branquitude: vieses e representações racistas em inteligências artificiais

Ano: 2025 | Volume: 19 | Número: 1
Autores: Thaise Marques de Lima, Vanessa Maria Gomes da Silva, Fellipe Sá Brasileiro
Autor Correspondente: Thaise Marques de Lima | thaisem.lima98@gmail.com

Palavras-chave: inteligência artificial, racismo algorítmico, representação, branquitude, viese, artificial intelligence, algorithmic racism, representation, whiteness, biases

Resumos Cadastrados

Resumo Português:

Este artigo objetiva refletir sobre o regime da branquitude em sistemas de inteligência artificial a partir de casos de viéses algorítmicos baseados em representações racistas. Parte do método do estudo de caso aplicado a dois escândalos de viés algorítmico envolvendo o Copilot e o Gemini, chatbots com sistemas de inteligência artificial produzidos pelas empresas de tecnologia Microsoft e Google. Destaca que as práticas de machine learning dos sistemas de inteligência artificial apontados são operadas com base nas estruturas de representação da branquitude,na medida em que são capazes de gerar informações imagéticas que associam pessoas de pele negra a um imaginário social formado por estereótipos, uma suposta representação há muito perpetuada por um sistema colonial racista. Observa que as soluções encaminhadas pelas empresas de tecnologia diante dos problemas relatados se restringem aos ajustes insuficientes nos produtos finais em detrimento de intervenções estruturais eficazes. Conclui-se que as empresas de tecnologia responsáveis por inteligência artificial poderiam apresentar respostas resilientes diante do problema do racismo algorítmico ao elaborarem estratégias eficazes para o aprendizado de máquina fundamentadas em bases de dados decoloniais e diversas, assim também como em treinamentos com feedbacks humanos



Resumo Inglês:

This article aims to reflect on the regime of whiteness in artificial intelligence systems based on cases of algorithmic bias based on racist representations. It uses the case study method applied to two algorithmic bias scandals involving Copilot and Gemini, chatbots with artificial intelligence systems produced by the technology companies Microsoft and Google. It points out that the machine learning practices of the artificial intelligence systems mentioned are operated based on the structures of representation of whiteness, insofar as they are capable of generating imaginary information that associates people with black skin with a social imaginary formed by stereotypes and a supposed representativeness that does not correspond to historical facts. It notes that the solutions put forward by technology companies in the face of the problems reported are limited to insufficient adjustments to the final products, to the detriment of effective structural interventions. It concludes that technology companies responsible for artificial intelligences can present resilient responses to the problem of algorithmic racism by devising effective machine learning strategies based on decolonial and diverse databases, as well as training with human feedback