Uma pesquisa científica apontou que grande parte dos conselhos da Inglaterra, que utilizam ferramentas de inteligência artificial, podem minimizar problemas de saúde física e mental de mulheres, criando risco de preconceito de gênero nas decisões de cuidado.
Segundo a pesquisa da London School of Economics and Political Science (LSE), que testou diferentes modelos de linguagem com 617 casos reais de assistência social, foram trocadas apenas o gênero.
No modelo Gemma, do Google, termos como “deficiente” e “complexo” apareciam mais para homens, enquanto necessidades semelhantes em mulheres eram omitidas ou descritas de forma mais branda. Em exemplos, um homem era descrito como “com histórico médico complexo e mobilidade limitada”, enquanto a versão feminina era apresentada como “independente” e “capaz de cuidar de si”.
++ Cachorro só come quando sua tutora canta e vídeo viraliza nas redes sociais
O Gemma apresentou disparidades de gênero mais acentuadas que outros modelos; o Llama 3, da Meta, não mostrou diferença de linguagem. Dr. Sam Rickman, principal autor do estudo, alerta que, como o cuidado é baseado na “necessidade percebida”, esses vieses podem resultar em menos apoio para mulheres.