Crédito: Pavel Danilyuk, da Pexels
No sistema de justiça legal, decisões sobre quando e quanto tempo para deter as pessoas historicamente foram tomadas por outras pessoas, como juízes e conselhos de liberdade condicional. Mas esse processo está mudando: os tomadores de decisão incluem cada vez mais sistemas de inteligência synthetic em uma variedade de tarefas, desde a previsão do crime até a análise do DNA até a recomendação de sentenças de prisão.
O uso da IA nesses domínios levanta questões prementes sobre como esses sistemas de computação usam dados para fazer previsões e recomendações, além de perguntas maiores sobre como proteger a justiça em uma period da IA.
Notavelmente, muitos sistemas de IA são “caixas pretas“O que significa que seus processos de comportamento e tomada de decisão são opacos ao escrutínio. Isso representa um problema no sistema de justiça, no qual confiança pública E a responsabilidade de jogadores-chave como juízes está vinculada a uma compreensão de como e por que as decisões que mudam a vida são tomadas.
Além disso, mesmo que um sistema de caixa preto seja estatisticamente justo e preciso, ele pode não atender aos padrões de justiça processual exigidos por nosso sistema constitucional.
Em abril de 2024, o Instituto Nacional de Justiça (NIJ) emitiu um público solicitação de informação Isso poderia ajudar a informar as diretrizes futuras sobre maneiras seguras e eficazes de usar a IA no Sistema de Justiça Prison.
A Associação de Pesquisa de Computação – uma grande organização focada em pesquisas de computação inovadora relacionadas a desafios oportunos – respondidos pela convocação de uma equipe de especialistas de instituições acadêmicas e indústria para cristalizar um comentário para se submeter ao NIJ. Professor da SFI Cris Moore e professora externa Stephanie Forrest (Universidade Estadual do Arizona) estavam entre a submissão autores. O argumento do grupo ficou claro: onde os direitos constitucionais estão em jogo, as decisões críticas não devem ser tomadas usando IA com processos ocultos.
“A idéia de que um sistema opaco – que nem os réus, nem seus advogados, nem seus juízes entendem – poderia desempenhar um papel nas principais decisões sobre a liberdade de uma pessoa é repugnante ao nosso sistema de justiça individualizado”, observaram os autores. “Um sistema opaco é um acusador que o réu não pode enfrentar; uma testemunha que não pode interrogar, apresentando evidências de que não podem contestar”.
Em agosto deste ano, o grupo seguiu com uma opinião publicado no Comunicações do ACM. Embora a Ordem Executiva Unique 14110 que levou à consulta do NIJ tenha sido rescindida, uma nova ordem executiva 13859 exige testes seguros de IA e “promover a confiança do público e a confiança nas tecnologias de IA e proteger as liberdades civis, a privacidade e os valores americanos em sua aplicação”.
Em um cenário de justiça legal, as tecnologias de IA se encaixariam apenas nessa conta se melhorassem a justiça e a transparência do sistema atual, diz Moore. Isso faz parte do que torna a IA atraente. Afinal, os processos de tomada de decisão humanos também nem sempre são transparentes.
https://www.youtube.com/watch?v=nzjitxawgr8
“Devemos usar a IA se tornar o sistema judicial mais transparente e responsável”, diz Moore. “Se não, não devemos usá -lo.”
Ele e seus colaboradores enviaram suas observações ao NIJ em maio de 2024. Eles destacaram argumentos -chave que o Departamento de Justiça deve considerar, pois desenvolve e implementa novas diretrizes sobre o uso justo e benéfico da IA na sentença e outros casos.
Muitos desses argumentos enfatizaram a necessidade de transparência: todo mundo que usa a IA ou é afetado por uma recomendação produzida pela AI deve ter uma compreensão clara dos dados que usou e como ele apresentou suas recomendações ou pontuações de risco. Além disso, os especialistas aconselharam, o procedimento pelo qual um juiz usa orientação de um sistema de IA deve ser claro.
Alguns pesquisadores alertaram que o aumento da transparência pode reduzir a utilidade de um sistema de IA, mas nos últimos anos, os pesquisadores no campo da “IA explicável” desenvolveram abordagens que ajudam a iluminar como esses modelos processam informações e produzem insumos.
Os sistemas de IA explicáveis podem ajudar, mas Moore observa que há várias maneiras de definir a transparência. A transparência não significa que todos entendam o código do computador e a matemática sob o capô de uma rede neural. Isso pode significar entender quais dados foram usados e como.
Ele aponta para a Honest Credit score Reporting Act (FCRA), que exige que as empresas de classificação de crédito divulguem informações do consumidor usadas para tomar decisões de crédito e definir classificações. As empresas podem manter seu processo oculto, diz Moore, mas um consumidor pode baixar facilmente as informações usadas no algoritmo.
Também oferece aos consumidores o direito de contestar esses dados se não forem precisos. Por outro lado, ele ressalta que o FCRA não permite que os consumidores questionem se o algoritmo está fazendo a coisa certa com seus dados.
“É importante poder olhar para o funcionamento interno de uma IA, não apenas suas entradas e saídas”, diz ele.
Além das recomendações sobre transparência, os pesquisadores aconselharam que a produção dos sistemas de IA deve ser específica e quantitativa – relatando uma “probabilidade de 7% de repouso para um crime violento”, por exemplo, em vez de descrever um suspeito com um rótulo como “alto risco”. Os rótulos qualitativos, diz Moore, deixa muito espaço para interpretação errada.
“Se o juiz entende o que a produção do sistema significa, incluindo que tipos de erros eles podem cometer, acho que eles podem ser ferramentas úteis”, diz Moore. “Não é como substituição para os juízes, mas para fornecer uma recomendação média ou de linha de base”.
Criticamente, os autores alertaram que os sistemas de IA nunca deveriam substituir completamente humanos tomadores de decisãoespecialmente nos casos em que a detenção e o direitos constitucionais de uma pessoa está em jogo.
No cenário preferrred, os sistemas de IA podem se tornar um tipo de consultor digital que produz a produção levada em consideração por um juiz ou outro tomador de decisão, juntamente com outros fatores relacionados ao caso. “Mas devemos sempre estar preparados para explicar a recomendação de uma IA e questionar como ela foi produzida”, diz Moore.
Mais informações:
Cristopher Moore et al, sobre o uso responsável de IA no sistema de justiça legal dos EUA, Comunicações do ACM (2025). Doi: 10.1145/3722548
Fornecido por
Instituto Santa Fe
Citação: Os tribunais podem proteger a justiça em uma period da IA? (2025, 5 de setembro) Recuperado em 5 de setembro de 2025 em https://phys.org/information/2025-09-courts-sfegugard-fairness-ai-age.html
Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa specific, nenhuma parte pode ser reproduzida sem a permissão por escrito. O conteúdo é fornecido apenas para fins de informação.