Inteligência Artificial Reproduz Preconceitos De Gênero: Estudo Revela Viés Em Recomendações Para Jovens

Inteligência Artificial Reproduz Preconceitos de Gênero: Estudo Revela Viés em Recomendações para Jovens

Noticias do Dia

IA perpetua desigualdades históricas

Uma análise aprofundada sobre o comportamento de grandes modelos de linguagem (LLMs), como ChatGPT e Gemini, revela que a inteligência artificial (IA) está longe de ser neutra em relação ao gênero. O estudo “Miragens da Igualdade”, da consultoria LLYC, analisou 9.600 interações em 12 países e constatou que as IAs reproduzem e amplificam preconceitos de gênero existentes na sociedade. Isso se manifesta em recomendações de carreira, validação emocional e até mesmo na forma como abordam questões de segurança e aparência.

Por exemplo, ao serem questionados sobre como ganhar dinheiro com o que amam, as IAs tendem a sugerir para jovens rapazes caminhos ligados a modelos de negócios e empreendedorismo online. Em contrapartida, para as jovens, as sugestões frequentemente giram em torno de “criar conteúdo sobre moda e dança urbana” ou buscar “parcerias com marcas”. Essa disparidade é um reflexo direto de estereótipos de gênero profundamente enraizados.

Carreiras e emoções: um direcionamento desigual

O estudo detalha como a IA incentiva meninos a buscarem carreiras em engenharia, associando-as a autonomia e poder, enquanto direciona meninas para setores como saúde e ciência, historicamente considerados femininos. A linguagem utilizada também difere significativamente: com os meninos, a comunicação é direta e focada em ação, muitas vezes com imperativos. Já com as meninas, a IA busca criar uma conexão empática, validando sentimentos em vez de oferecer soluções práticas.

Um exemplo citado por Luísa García, uma das autoras do estudo, ilustra essa diferença: ao lidar com o fim de um relacionamento, a IA aconselha os meninos a “irem para a academia e tomarem uma atitude”, enquanto diz às meninas: “eu entendo, é normal ficar triste”. Essa abordagem reforça a ideia de que homens devem reprimir emoções e agir, enquanto mulheres devem expressar e ter seus sentimentos validados.

Estereótipos de beleza e riscos na carreira

A influência da IA sobre os padrões de beleza também é notável. Em interações com mulheres, temas de moda são mencionados 48% mais frequentemente do que em interações com homens, mesmo quando o assunto original não está relacionado a isso. Para mulheres em ambientes onde seu gênero é minoria, como em cursos de mecânica ou engenharia civil, a IA sugere que o medo de se sentir observada é normal e recomenda que se vistam de forma “confortável, mas elegante” para ganhar confiança. Essas respostas, segundo especialistas como Micaela Sánchez Malcom, refletem a sub-representação feminina em áreas de tecnologia e a falta de mulheres em processos de design e engenharia de IA.

A baixa participação feminina no setor de IA, estimada em 22% globalmente, segundo o Fórum Econômico Mundial, é apontada como um fator crucial para a perpetuação desses vieses. A IA, ao analisar currículos, por exemplo, tende a atribuir menos anos de experiência a perfis com nomes femininos, assumindo uma “inexperiência padrão” que pode bloquear o avanço profissional de mulheres jovens. Estudos recentes na Alemanha e em Stanford/Oxford corroboram essa discriminação, com IAs aconselhando mulheres a pedirem salários menores ou discriminando em processos de recrutamento.

O perigo da IA na criação de conteúdo e o caminho para a equidade

Um dos aspectos mais preocupantes é o uso da IA para a criação de conteúdo prejudicial. Relatórios indicam que 98% dos vídeos deepfake na internet são pornográficos, com 99% das vítimas sendo mulheres. A recente polêmica envolvendo o chatbot Grok da X, que permitia a criação de imagens pornográficas a partir de fotos de mulheres, exemplifica o potencial de abuso dessas ferramentas. Embora existam leis como a Lei Olimpia na Argentina para combater a violência digital, o uso específico de IA para fins ilícitos ainda carece de regulamentação clara em muitos locais.

Apesar do cenário desafiador, há esforços para mitigar esses problemas. Ferramentas como o OlivIA, criado por Ana Correa, buscam detectar estereótipos de gênero em respostas de IA. Além disso, aplicativos de segurança e bots de apoio a vítimas de assédio sexual estão sendo desenvolvidos. Mara Bolis, da Harvard Kennedy School, ressalta que, embora as mulheres demonstrem maior ceticismo em relação à IA generativa, sua perspectiva crítica é fundamental para o desenvolvimento seguro e inclusivo da tecnologia. A diversidade nas equipes de programação e a conscientização dos usuários sobre o potencial viés são passos essenciais para reeducar as máquinas e pressionar as empresas de tecnologia a aprimorarem seus algoritmos, garantindo que a IA se torne uma ferramenta de igualdade, e não de perpetuação de desigualdades.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *