Leia o texto para responder à questão.
A popularização dos aplicativos de inteligência artificial (IA) que geram imagens a partir de comandos de texto é fascinante, mas também desafiadora. Não faltam relatos de como as mulheres são majoritariamente retratadas em situações ou profissões menos qualificadas, ou de maneira objetificada em figuras geradas artificialmente.
As inteligências artificiais alimentam-se de bancos de dados que, por sua vez, espelham os valores da sociedade. Mais do que replicar comportamentos e situações preconceituosas, no entanto, as novas tecnologias podem acabar amplificando-os.
Para ilustrar o problema, uma agência de notícias analisou mais de 5 000 imagens geradas por uma ferramenta de IA e concluiu que as mulheres raramente são médicas, advogadas e juízas. Apenas 3% das imagens geradas a partir da palavra-chave “judge” (“juiz” ou “juíza”, em inglês) retratavam figuras femininas, enquanto 34% das pessoas que ocupam esse cargo nos Estados Unidos são mulheres. Ao fazer um teste com a palavra “doctor” (“médico” ou “médica”, em inglês), a agência obteve retratos femininos em apenas 7% das imagens geradas artificialmente, ao passo que o país conta com 39% de seu quadro médico formado por mulheres.
(Daniela Machado. O que a IA nos conta sobre
mulheres e estereótipos. www1.folha.uol.com.br, 07.03.2024. Adaptado)
Segundo o que se afirma no texto, é correto afirmar que uma análise de imagens geradas por inteligência artificial (IA) revelou