Algoritmo racista: IA usada na Justiça dos EUA erra mais com réus negros

Algoritmo racista: IA usada na Justiça dos EUA erra mais com réus negros
Imagem destaque: ChatGPT

Um sistema supostamente inteligente usado para prever reincidência criminal nos Estados Unidos parece ter dificuldade com matemática básica e justiça racial. O nome da estrela? COMPAS. Mas se você pensou em uma bússola moral, talvez precise recalibrar.

A IA que não passou no teste de humanidade

Imagine confiar decisões judiciais – como liberdade condicional e penas criminais – a um software. A premissa do COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) era justamente essa: prever quem tem mais chances de cometer outro crime. Uma maravilha da estatística preditiva, certo? Errado.

Estudos conduzidos pela ProPublica mostraram que o COMPAS, ao analisar e 7 mil réus da Flórida, tinha um talento especial: errar feio com os réus negros.

📉 Viés disfarçado de lógica 

Entre os que não reincidiram, o algoritmo classificou 45% dos negros como “alto risco”, enquanto só 23% dos brancos receberam a mesma pontuação. 

Já entre os que voltaram a cometer crimes, o COMPAS deu nota “baixo risco” para 48% dos brancos, mas apenas 28% dos negros foram subestimados.

Ou seja, o algoritmo cometeu mais falsos positivos com negros (acusando injustamente) e mais falsos negativos com brancos (passando pano). Uma façanha impressionante, se o seu objetivo for alimentar estatísticas racistas com roupagem tecnológica.

🧠 A defesa da empresa? “Você está analisando errado!” 

A Northpointe (hoje Equivant), criadora do COMPAS, contestou os resultados, alegando que o sistema é justo… de um jeito diferente. Segundo a empresa, ele equilibra probabilidades dentro de cada grupo racial, como se a sociedade e o algoritmo vivessem num mundo paralelo onde justiça estatística fosse sinônimo de justiça social.

O problema é que, mesmo nesse universo alternativo, os juízes continuam humanos. E a decisão deles pode ser “influenciada” (leia-se enviesada) por um número piscando na tela – mesmo que esse número esteja errado.

Justiça algorítmica ou comédia de erros?

O Supremo Tribunal de Wisconsin decidiu que juízes podem usar o COMPAS, mas devem ser avisados sobre suas limitações. Uma sugestão válida, desde que a palavra “limitação” venha em negrito, caps lock e talvez com uma sirene.

O caso COMPAS só mostra uma verdade: algoritmos refletem os vieses de quem os cria. O verniz tecnológico não corrige desigualdades — apenas as automatiza em larga escala.

E confiar em inteligência artificial para definir o destino de vidas humanas sem transparência ou revisão crítica é o tipo de decisão que parece lógica… até que os dados provem o contrário.

📌 Leia também:

Deixei o ChatGPT 48h e ele “sentiu minha falta”

OpenAI pode inserir anúncios no ChatGPT, diz Altman

Inteligência artificial transforma acesso à saúde na África

  Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.

Deixe seu comentário: