AI está em toda parte. Ele influencia quais palavras usamos em textos e e -mails, como recebemos nossas notícias no X (anteriormente Twitter) e o que assistimos no Netflix e no YouTube. (É mesmo incorporado na plataforma Codecademy você usa para aprender habilidades técnicas.) À medida que a IA se torna uma parte perfeita de nossas vidas e empregos, é essential considerar Como essas tecnologias afetam diferentes dados demográficos.
As consequências de vieses raciais em IApor exemplo, estão bem documentados. Na área da saúde, a IA ajuda no diagnóstico de condições e a tomar decisões sobre tratamento, mas os vieses surgem de suposições incorretas sobre Grupos de pacientes sub -representadoslevando a cuidados inadequados. Da mesma forma, na aplicação da lei, Ferramentas de policiamento preditivas como tecnologia de reconhecimento facial segmentar desproporcionalmente as comunidades bipocexacerbando desigualdades raciais.
Então, como impedimos o viés na IA em primeiro lugar? É uma grande questão que todos os desenvolvedores e pessoas que interagem com a tecnologia têm a responsabilidade de pensar.
Existem avenidas para o viés ocorrer em todas as etapas do processo de desenvolvimento, explica asmelash teka hadgu, um bolsista de pesquisa no Instituto de Pesquisa AI distribuído (Dair). Desde o início, um desenvolvedor pode conceituar um problema e identificar um espaço de solução que não se alinha às necessidades de uma comunidade ou de um grupo afetado. O viés também pode aparecer nos dados usados para treinar sistemas de IA e pode ser perpetuado através dos algoritmos de aprendizado de máquina que empregamos.
Com tanto potencial para o viés se transformar em IA, a discriminação algorítmica pode parecer inevitável ou intransponível. E enquanto a desfazer os vieses raciais não é tão simples quanto criar um novo recurso para um aplicativo ou corrigir um bug, existem medidas proativas que todos podemos tomar para abordar possíveis riscos e eliminar o viés da melhor maneira possível. À frente, Asmelash quebra como esses vieses se manifestam na IA e como impedir o viés ao construir e usar os sistemas de IA.
Aprenda algo novo de graça
Como os vieses raciais se manifestam na IA e que ameaças elas representam?
Asmelash: “Se aumentarmos um pouco o zoom e examinarmos um sistema ou projeto de aprendizado de máquina, temos os construtores ou pesquisadores que combinam dados e computação para criar artefatos. Espero que haja também uma comunidade ou pessoas que seus sistemas e pesquisas pretendem ajudar. E é aqui que o viés pode entrar. Do ponto de vista de um construtor, é sempre bom avaliar (e possivelmente documentar) quaisquer vieses ou suposições ao resolver um problema técnico.
O segundo componente é dados tendenciososque é a primeira coisa que vem à mente para a maioria das pessoas quando falamos sobre preconceitos no aprendizado de máquina. Por exemplo, grandes empresas de tecnologia criam sistemas de aprendizado de máquina raspando a Net; Mas sabemos que os dados que você encontra na internet não são realmente representativos para muitas raças e outros tipos de categorizações de pessoas. Portanto, se as pessoas apenas acumularem esses dados e criar sistemas em cima deles, (esses sistemas) terão vieses codificados neles.
Também existem preconceitos que vêm da seleção de algoritmos, que é menos comentada. Por exemplo, se você tiver conjuntos de dados desequilibrados, você deve se esforçar para usar o tipo certo de algoritmos para não deturpar os dados. Porque, como dissemos, os dados subjacentes já podem estar distorcidos.
A interação entre dados e algoritmos é difícil de separar, mas em cenários em que você tem desequilíbrio de classe e está tentando executar tarefas de classificação, deve explorar a subamostragem ou a amostragem de determinadas categorias antes de aplicar cegamente um algoritmo. Você pode encontrar um algoritmo usado em certos contextos e, sem avaliar os cenários em que funciona bem, usá -lo em um conjunto de dados que não exibe as mesmas características. Essa incompatibilidade poderia exacerbar ou causar viés racial.
Finalmente, existem comunidades e pessoas que estamos direcionando no trabalho de aprendizado de máquina e pesquisa. O problema é que muitos projetos não envolvem as comunidades que estão direcionando. E se seus usuários -alvo não estiverem envolvidos, é muito provável que você introduza vieses mais tarde. ”
Como os desenvolvedores e engenheiros da IA podem ajudar a mitigar esses vieses?
Asmelash: “Filosofia de Pesquisa da Dair é um ótimo guia, e tem sido realmente útil, pois pratico a construção de sistemas de aprendizado de máquina na minha startup, Lesan AI. Eles explicam como, se queremos construir algo para uma comunidade, precisamos envolvê -los desde o início – e não como contribuintes de dados, mas como parceiros iguais da pesquisa que estamos fazendo. Leva tempo e confiança para construir esse tipo de envolvimento da comunidade, mas acho que vale a pena.
Também há responsabilidade. Quando você está construindo um sistema de aprendizado de máquina, é importante garantir que a saída desse projeto não seja mal utilizada ou exagerada em contextos para os quais ele não foi projetado. É nossa responsabilidade; Devemos garantir que somos responsáveis pelo que estamos construindo. ”
O que as organizações e empresas podem criar ou empregar ferramentas de IA?
Asmelash: “Há um empurrão para modelos de IA de fornecimento abertoe isso é ótimo para analisar o que as pessoas estão construindo. Mas na IA, dados e poder de computação são os dois componentes principais. Tomemos tecnologias de idiomas como reconhecimento automático de fala ou sistemas de tradução de máquina, por exemplo. As empresas que construem esses sistemas abrirão todos os dados e algoritmos que usaram, o que é fantástico, mas a única coisa que eles não são de fornecimento aberto são seus recursos de computação. E eles têm toneladas disso.
Agora, se você é uma startup ou pesquisador tentando fazer algo significativo, não pode competir com eles porque não tem os recursos de computação que eles têm. E isso deixa muitas pessoas, especialmente em empresas em desenvolvimento, em desvantagem, porque somos pressionados a abordar nossos dados e algoritmos, mas não podemos competir porque não temos o componente de computação e acabamos sendo deixados para trás. ”
E a pessoa comum usando essas ferramentas – o que os indivíduos podem fazer para ajudar a mitigar o viés racial na IA?
Asmelash: “Digamos que uma empresa cria um sistema de reconhecimento de fala. Como alguém da África, se não funcionar para mim, devo chamá -lo. Eu não deveria me sentir envergonhado por não funcionar porque não é o meu problema. E o mesmo vale para outros negros.
Pesquisas mostram que sistemas automáticos de reconhecimento de fala falhar principalmente em alto -falantes negros. E quando isso acontece, devemos chamá -los de usuários. Esse é o nosso poder. Se pudermos chamar sistemas e produtos e dizer ‘eu tentei isso, não funciona para mim’ – essa é uma boa maneira de sinalizar outras empresas para preencher essa lacuna. Ou informar aos formuladores de políticas que essas coisas não funcionam para um certo tipo de pessoas. É importante perceber que nós, como usuários, também temos o poder de moldar isso.
Você também pode contribuir (suas habilidades de escrita) para a pesquisa de aprendizado de máquina. A comunicação de pesquisa, por exemplo, é um grande negócio. Quando um pesquisador escreve um artigo de pesquisa técnica, nem sempre está interessado em comunicar essa pesquisa ao público em geral. Se alguém está interessado nesse espaço, mas não gosta de codificar e programar, isso é uma enorme lacuna não preenchida. ”
A conversa foi editada para clareza e comprimento.
Saiba mais sobre ai
Sentindo -se capacitado para buscar um carreira em IA ou aprendizado de máquina? Confira nossos cursos de IA para descobrir mais sobre sua influência no mundo. Comece com o curso gratuito Introdução ao chatgpt Para obter uma cartilha em um dos sistemas de IA mais avançados disponíveis hoje e suas limitações. Em seguida, discover como a IA generativa afetará nosso futuro no curso gratuito Aprenda o papel e o impacto da IA generativa e do chatgpt.
Este weblog foi publicado originalmente em fevereiro de 2024 e foi atualizado para incluir as estatísticas mais recentes.