Este artigo objetiva refletir sobre o regime da branquitude em sistemas de inteligência artificial a partir de casos de viéses algorítmicos baseados em representações racistas. Parte do método do estudo de caso aplicado a dois escândalos de viés algorítmico envolvendo o Copilot e o Gemini, chatbots com sistemas de inteligência artificial produzidos pelas empresas de tecnologia Microsoft e Google. Destaca que as práticas de machine learning dos sistemas de inteligência artificial apontados são operadas com base nas estruturas de representação da branquitude,na medida em que são capazes de gerar informações imagéticas que associam pessoas de pele negra a um imaginário social formado por estereótipos, uma suposta representação há muito perpetuada por um sistema colonial racista. Observa que as soluções encaminhadas pelas empresas de tecnologia diante dos problemas relatados se restringem aos ajustes insuficientes nos produtos finais em detrimento de intervenções estruturais eficazes. Conclui-se que as empresas de tecnologia responsáveis por inteligência artificial poderiam apresentar respostas resilientes diante do problema do racismo algorítmico ao elaborarem estratégias eficazes para o aprendizado de máquina fundamentadas em bases de dados decoloniais e diversas, assim também como em treinamentos com feedbacks humanos
This article aims to reflect on the regime of whiteness in artificial intelligence systems based on cases of algorithmic bias based on racist representations. It uses the case study method applied to two algorithmic bias scandals involving Copilot and Gemini, chatbots with artificial intelligence systems produced by the technology companies Microsoft and Google. It points out that the machine learning practices of the artificial intelligence systems mentioned are operated based on the structures of representation of whiteness, insofar as they are capable of generating imaginary information that associates people with black skin with a social imaginary formed by stereotypes and a supposed representativeness that does not correspond to historical facts. It notes that the solutions put forward by technology companies in the face of the problems reported are limited to insufficient adjustments to the final products, to the detriment of effective structural interventions. It concludes that technology companies responsible for artificial intelligences can present resilient responses to the problem of algorithmic racism by devising effective machine learning strategies based on decolonial and diverse databases, as well as training with human feedback