Crédito: imagem gerada pela AI
A inteligência synthetic pode ser comercializada como o grande equalizador da sociedade – empresas transformadoras, simplificando o trabalho e facilitando a vida para todos – mas para muitos americanos marginalizados, a IA não se sente uma promessa.
Parece uma ameaça.
Um novo estudo da Universidade de Michigan constata que minorias de gênero, mulheres e indivíduos com deficiência-especialmente aqueles que são neurodivergentes ou vivem com condições de saúde mental-sustentam atitudes significativamente mais negativas em relação à IA do que seus colegas de grupo majoritário.
Usando dados de uma pesquisa nacionalmente representativa com 742 pessoas, os pesquisadores pediram aos participantes que relatassem suas atitudes sobre o impacto da IA em suas vidas e trabalho. As respostas revelam uma divisão acentuada em positividade em relação à IA entre as linhas de identidade.
“A IA pode estar em toda parte, mas não é para todos – pelo menos ainda não”, disse o principal autor Oliver Haimson, professor assistente da Faculty of Data and Digital Research Institute. “Se continuarmos a ignorar as perspectivas das pessoas marginalizadas, corremos o risco de construir um futuro movido a IA que aprofunda as desigualdades em vez de reduzi-las”.
Principais resultados:
- Os participantes não binários e trans relataram as visões mais negativas da IA em geral.
- As mulheres eram significativamente menos propensas que os homens de visualizar a IA positivamente.
- Participantes com deficiência, particularmente aqueles que são neurodivergentes ou têm Condições de saúde psychologicaltambém expressou atitudes negativas de IA.
- Surpreendentemente, os participantes negros mantiveram visões mais positivas da IA do que os participantes brancos, sugerindo um relacionamento mais sutil com a tecnologia entre pessoas de cor.
O estudo destaca os danos no mundo actual que podem alimentar percepções negativas da IA:
- Software program de reconhecimento facial que os maleques ou classifica incorretamente pessoas trans e não binárias – geralmente enquanto os circulam.
- Algoritmos de policiamento preditivo que reforçam Viés racial e levar a prisões injustas.
- Sistemas de saúde que dependem de modelos de IA não projetados com pessoas com deficiência em mente.
“Essas não são preocupações abstratas”, disse Haimson. “As pessoas cautelosas com a IA costumam viver experiências com sistemas que identificam, excluem ou prejudicam mal devido ao seu gênero ou incapacidade”.
A pesquisa questiona a narrativa dominante da IA como uma ferramenta neutra ou universalmente benéfica. Exorta tecnólogos, empresas e formuladores de políticas a pausar e perguntar: para quem essa tecnologia está trabalhando – e quem está sendo deixado para trás?
Os co-autores do estudo são o estudante de doutorado Samuel Reiji Mayworm, o colega de pesquisa Alexis Shore Ingber e o professor assistente Nazanin Andalibi.
A pesquisa foi apresentado Na recente conferência de 2025 da ACM sobre justiça, responsabilidade e transparência (FACCT ’25).
Mais informações:
Oliver L. Haimson et al. Anais da Conferência ACM de 2025 sobre justiça, responsabilidade e transparência (2025). Doi: 10.1145/3715275.3732081
Fornecido por
Universidade de Michigan
Citação: Os americanos marginalizados são altamente céticos em relação à inteligência synthetic, a pesquisa descobre (2025, 2 de julho) recuperada em 2 de julho de 2025 em https://phys.org/information/2025-07-marginalized-mericans-highly-skepticial-articial.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa explicit, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.