Inteligência artificial precisa evitar viés racista e discriminatório, afirmam especialistas

Aspectos que evidenciem critérios com vieses racistas e discriminatórios precisam ser evitados nas aplicações que utilizam Inteligência Artificial, afirmam especialistas que participaram nesta quinta-feira,12, de mais um ciclo de audiências da Comissão Juristas do Senado que estão elaborando regras de uso de IA no Brasil.

Denise Carvalho, pesquisadora da Universidade Federal do Rio de Janeiro (UFRJ), diz que hoje se observa os impactos da IA sobre gênero e raça. "Critérios de relevâncias dos algoritmos manifestavam vieses racistas e misóginos. Por isso, modelos de aprendizagem devem considerar esses vieses raciais e evita-los", explicou a pesquisadora na audiência Pública.

A codiretora executiva da organização internacional Derechos Digitales, Jamila Venturini, ressaltou que os problemas discriminatórios podem ocorrer em diferentes níveis de implementação. "Tivemos no Chile o uso de um software de IA que causava discriminação de grupos marginalizados. Vimos situações semelhantes no Uruguai e na Colômbia", disse a executiva. Para Venturini, apenas declarações de princípios são insuficientes em uma regulação nacional de Inteligência Artificial.

Notícias relacionadas

Para Tarcízio Sillva, Fellow pela Fundação Mozilla e curador na Desvelar, nenhuma tecnologia é neutra. Por isso, é preciso levar o debate sobre IA no Brasil confrontando o principialismo x pragmatismo. "Há uma necessidade de observar a realidade material e desigualdades interseccionais para identificar como a IA pode potencializar discriminações", explicou Silva.

Ele defendeu que as soluções de IA devem ter em sua gênese medidas antirracistas, já que se observa nos argumentos que defendem o uso indiscriminado dessas soluções um tecnossolucionismo e uma falsa neutralidade tecnológica. Ele defendeu também a importância de educação digital para as pessoas compreenderem melhor as tecnologias e que o Estado tem o papel de fortalecimento de centros interdisciplinares e multissetoriais.

Outro convidado do debate, o jurista Silvio de Almeida, também apontou que não existe tecnologia neutra. "A neutralidade tecnológica é uma forma de ocultar o racismo institucional e outros vieses discriminatórios", disse Almeida, que no debate representava o Instituto Luiz Gama e FGV EAESP. Almeida também destacou que toda tecnologia está inserida dentro de um contexto ou projeto político, o que faz com qualquer análise sobre IA também leve em consideração aspectos políticos e conjunturais. "Isso envolve impor certos parâmetros e a criação de grupos que poderem observar, estabelecer diretrizes para dar recomendações para o uso dessa tecnologia de maneira mais adequada", explicou Almeida.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.