Foto: Geralt / Pixabay
As mulheres são descritas como trabalhando em funções domésticas com muito mais frequência do que os homens – quatro vezes mais, em um dos sistemas – e foram frequentemente associadas a palavras como “casa”, “família” e “filhos”, enquanto os nomes masculinos foram associados a “negócios”, “executivo”, “salário” e “carreira”.
O estudo Bias Against Women and Girls in Large Language Models (Preconceitos contra Mulheres e Meninas em LLMs) examinou os estereótipos nas ferramentas de processamento de linguagem natural que são a base das plataformas populares de IA generativa do GPT-3.5 e GPT-2 da OpenAI e do Llama 2, da Meta, encontrando “evidências inequívocas de preconceito contra as mulheres no conteúdo gerado por todas elas”.
“Cada dia mais pessoas usam a IA generativa no trabalho, nos estudos e em casa. As novas aplicações de inteligência artificial têm o poder de moldar sutilmente as percepções de milhões de pessoas, levando a uma situação em que mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real”, afirmou Audrey Azoulay, Diretora Geral da Unesco.
Parte do estudo mediu a diversidade de conteúdo em textos gerados por IA focados em uma variedade de pessoas de diversos gêneros, sexualidades e origens culturais, inclusive pedindo às plataformas que “escrevessem uma história” sobre cada uma delas.
Os LLMs de código aberto, em particular, tendem a atribuir empregos mais diversificados e de alto status aos homens, como engenheiro, professor e médico, ao mesmo tempo que associam frequentemente as mulheres a funções tradicionalmente subvalorizadas ou socialmente estigmatizadas, como “empregada doméstica”, “cozinheira” e “prostituta”.
O Llama 2 gerou histórias sobre meninos e homens dominadas pelas palavras “tesouro”, “bosque”, “mar”, “aventureiro” e “decidido”, enquanto histórias sobre mulheres faziam uso mais frequente das palavras “jardim ”, “amor”, “sentido”, “gentil”, “cabelo” e “marido”.
As mulheres foram descritas como trabalhando em funções domésticas quatro vezes mais do que os homens no conteúdo produzido pelo Llama 2.
Os estudos também destacaram que os LLMs tendem a produzir conteúdos negativos sobre pessoas gays e grupos étnicos específicos. Quando os três modelos de IA foram solicitados a completar frases começando com “uma pessoa gay é…”, 70% do conteúdo gerado pelo Llama 2 era negativo.
Os exemplos incluíam frases como “o gay era considerado o mais baixo na hierarquia social”. O estudo encontrou 60% do conteúdo gerado pelo GPT-2 com enfoque negativo, associando-os a crimes, prostituição e ausência de direitos.
Quando os LLMs foram solicitados a gerar textos sobre diferentes etnias – tomando como exemplo homens e mulheres britânicos e zulus – descobriram que exibiam elevados níveis de preconceito cultural.
Aos homens britânicos foram atribuídas ocupações variadas, incluindo “motorista”, “médico”, “funcionário de banco” e “professor”. Os homens Zulu eram mais propensos a receber as ocupações de “jardineiro” e “segurança”. E 20% dos textos sobre as mulheres Zulu atribuíam-lhes papéis de “empregadas domésticas”, “cozinheiras e “donas de casa”.
As inteligências artificiais de código aberto, como Llama 2 e GPT-2 – valorizadas porque são gratuitas e acessíveis a um público amplo – exibiram mais preconceito de gênero.
No entanto, salienta a Unesco, o estudo também conclui que a sua natureza aberta e transparente pode ser uma vantagem na abordagem e mitigação destes preconceitos por meio de colaboração em toda a comunidade de investigação global, em comparação com modelos mais fechados como o GPT 3.5 e 4 (a base para ChatGPT) e o Gemini do Google.
A organização apelou aos governos para que desenvolvam e apliquem regulamentações claras, e às empresas privadas para que realizem monitoramento e avaliação contínuas de preconceitos sistêmicos, conforme estabelecido na Recomendação da Unesco sobre a Ética da Inteligência Artificial, adotada por unanimidade pelos Estados-Membros em novembro de 2021.
Em fevereiro de 2024, oito empresas globais de tecnologia, incluindo a Microsoft, também endossaram a recomendação.
Entre as medidas estão ações destinadas a garantir a igualdade de gênero na concepção de ferramentas de IA, incluindo fundos para financiar mecansimos de paridade de gênero nas empresas, o incentivo financeiro ao empreendedorismo feminino e o investimento em programas direcionados para aumentar as oportunidades para mulheres e jovens em disciplinas de ciência.
A luta contra os estereótipos exige também a diversificação do recrutamento nas empresas, aponta a Unesco.
De acordo com os dados mais recentes, as mulheres constitutem apenas 20% dos funcionários em funções técnicas nas principais empresas de aprendizagem automática, 12% dos pesquisadores no campo de inteligência artificial e 6% dos programadores de software profissionais.
A disparidade de gênero entre autores que publicam na área da inteligência artificial também é evidente. Estudos descobriram que apenas 18% dos palestrantes nas principais conferências de IA são mulheres e mais de 80% dos professores de IA são homens.
“Se os sistemas não forem desenvolvidos por equipas diversas, será menos provável que respondam às necessidades dos diversos usuários ou mesmo protejam os seus direitos humanos”, destaca a Unesco.
Assine as notícias da Guatá e receba atualizações diárias.