AI no tribunal: quando os algoritmos dominam o tempo de prisão

The TRUTH Why Modern Music Is Awful (Junho 2019).

Anonim

O processo centenário de libertar os réus sob fiança, há muito tempo a critério da justiça, está recebendo uma grande ajuda … cortesia da inteligência artificial.

No final de agosto, Hercules Shepherd Jr. caminhou até o estande em um tribunal de Cleveland, vestindo um macacão laranja. Duas noites antes, um policial o prendera em uma parada de tráfego com um pequeno saco de cocaína e estava prestes a ser denunciado.

O juiz Jimmy Jackson Jr. olhou para Shepherd, depois para uma pontuação gerada por computador na frente do arquivo do caso de 18 anos. Dois de seis para a probabilidade de cometer outro crime. Um em cada seis por probabilidade de pular tribunal. As pontuações marcaram Shepherd como um dos principais candidatos à libertação antes do julgamento com baixa fiança.

"Pedimos à corte que leve tudo em consideração", disse o defensor público de Shepherd, David Magee.

Não muito tempo atrás, Jackson teria decidido o futuro de curto prazo de Shepherd baseado em uma leitura de arquivos judiciais e sua própria intuição. Mas em Cleveland e em um número crescente de outros tribunais locais e estaduais, os juízes são agora guiados por algoritmos de computador antes de decidir se réus criminais podem retornar à vida cotidiana ou permanecer presos aguardando julgamento.

Especialistas dizem que o uso dessas avaliações de risco pode ser a maior mudança na tomada de decisões no tribunal, uma vez que os juízes americanos começaram a aceitar a ciência social e outras evidências especializadas há mais de um século. Christopher Griffin, diretor de pesquisa do Access to Justice Lab da Harvard Law School, chama as novas ferramentas digitais de "o próximo passo nessa revolução".

Os críticos, no entanto, temem que tais algoritmos acabem suplantando o julgamento dos juízes, e possivelmente até perpetuem vieses de forma ostensivamente neutra.

A AI recebe muita atenção pelos trabalhos que erradica. Isso não está acontecendo com os juízes, pelo menos não ainda. Mas como em muitas outras carreiras de colarinho branco que exigem graus avançados ou outra educação especializada, a IA está remodelando, se não eliminando, algumas das tarefas mais básicas dos juízes - muitas das quais ainda podem ter enormes consequências para as pessoas envolvidas.

A fiança em dinheiro, destinada a garantir que as pessoas acusadas de crimes compareçam a julgamento, faz parte do sistema judiciário dos EUA desde o seu início. Mas obrigar os réus a desembolsar somas consideráveis ​​provocou, nos últimos anos, o ataque por manter os réus mais pobres presos, ao mesmo tempo em que os mais ricos foram libertados. Estudos também mostraram que aumenta as disparidades raciais no encarceramento pré-julgamento.

Um movimento de reforma da fiança bipartidário que busca alternativas à fiança em dinheiro encontrou nas estatísticas e na ciência da computação: algoritmos de inteligência artificial que podem vasculhar grandes conjuntos de dados do tribunal para procurar associações e prever como os réus individuais poderiam se comportar.

Estados como Arizona, Kentucky e Alasca adotaram essas ferramentas, que visam identificar pessoas com maior probabilidade de fugir ou cometer outro crime. Os réus que recebem pontuações baixas são recomendados para liberação sob supervisão judicial.

Um ano atrás, New Jersey deu um salto ainda maior nas avaliações algorítmicas, revisando todo o sistema judicial estadual para os procedimentos pré-julgamento. Os juízes do estado agora contam com o que é chamado de pontuação da Avaliação de Segurança Pública, desenvolvida pela Fundação Laura e John Arnold, sediada em Houston.

Essa ferramenta é parte de um pacote maior de reformas de fiança que entraram em vigor em janeiro de 2017, eliminando efetivamente a indústria de fiança, esvaziando muitas celas e modernizando os sistemas de computadores que lidam com processos judiciais. "Estamos tentando passar sem papel, totalmente automatizados", disse o juiz Ernest Caposela, que ajudou a introduzir as mudanças no movimentado tribunal do condado de Passaic, em Paterson, Nova Jersey.

As avaliações de Nova Jersey começam assim que um suspeito é identificado pela polícia. Essa informação flui para uma divisão de escritórios totalmente nova, chamada "Serviços Preventivos", na qual os trabalhadores de cubículos supervisionam como os réus são processados ​​através do sistema computadorizado.

A primeira audiência acontece rapidamente, e da prisão - os réus aparecem por videoconferência quando sua pontuação de risco é apresentada ao juiz. Se liberados, recebem alertas de texto para lembrá-los da aparência do tribunal. Caposela compara a automação com "da mesma forma que você compra algo da Amazon. Quando você está no sistema, eles têm tudo o que precisam em você".

Tudo isso dá mais tempo para os juízes deliberarem cuidadosamente, com base nas melhores informações disponíveis, disse Caposela, ao mesmo tempo em que mantém as pessoas fora da prisão quando não são uma ameaça à segurança.

Entre outras coisas, o algoritmo visa reduzir decisões preconceituosas que poderiam ser influenciadas pela raça, gênero ou vestuário de um acusado - ou talvez o quão irritado um juiz pode estar se sentindo depois de perder o café da manhã. Os nove fatores de risco utilizados para avaliar um réu incluem idade e condenações penais passadas. Mas eles excluem raça, gênero, histórico de emprego e onde a pessoa vive. Eles também excluem um histórico de prisões, que pode se opor a pessoas com maior probabilidade de encontrar policiais - mesmo que não tenham feito nada de errado.

A Fundação Arnold se esforça para distinguir a Avaliação de Segurança Pública de outros esforços para automatizar decisões judiciais - em particular, um sistema comercial proprietário chamado Compas que tem sido usado para ajudar a determinar as sentenças de prisão para criminosos condenados. Um relatório investigativo da ProPublica descobriu que a Compas estava falsamente acusando os réus negros como prováveis ​​criminosos no futuro quase ao dobro da taxa dos réus brancos.

Outros especialistas questionaram essas descobertas, e a Suprema Corte dos EUA recusou no ano passado aceitar o caso de um homem de Wisconsin encarcerado que argumentou que o uso do gênero como um fator na avaliação do Compas violava seus direitos.

Arnold observa que seu algoritmo é direto e aberto à inspeção por qualquer pessoa - embora os dados subjacentes sejam confiáveis. "Não há mistério sobre como uma pontuação de risco é alcançada para um determinado réu", disse Matt Alsdorf, que dirigiu os esforços de avaliação de risco da fundação até o final do ano passado.

Os defensores da nova abordagem são rápidos em perceber que as pessoas que têm vestes ainda estão no comando.

"Isso não é algo em que você coloca um bilhete, aperta um botão e diz qual fiança dar a alguém", disse o juiz Ronald Adrine, que preside o Tribunal Municipal de Cleveland. Em vez disso, diz ele, a pontuação algorítmica é apenas um entre vários fatores que os juízes devem considerar.

Mas outros especialistas temem que os algoritmos tornem os julgamentos mais automáticos e mecânicos ao longo do tempo - e que, em vez de eliminar o viés, possam perpetuá-lo sob a máscara da objetividade orientada por dados. A pesquisa mostrou que, quando as pessoas recebem orientações específicas de aconselhamento, elas tendem a segui-las em vez do seu próprio julgamento, disse Bernard Harcourt, professor de direito e ciências políticas da Universidade de Columbia.

"Essas formas de especialização têm uma atração gravitacional real sobre os tomadores de decisão", disse ele. "É ingênuo pensar que as pessoas simplesmente não confiam nelas".

E se isso acontecer, os juízes - como todas as pessoas - podem achar fácil abandonar suas habilidades de pensamento crítico quando apresentados ao que parece ser uma resposta fácil, disse Kristian Hammond, cientista da computação da Universidade Northwestern que co-fundou sua própria empresa de inteligência artificial.

A solução é "recusar-se a construir caixas que lhe dêem respostas", diz ele. "O que os jurados realmente precisam são" caixas que lhe dão respostas e explicações e perguntam se há algo que você queira mudar. "

Antes de sua prisão em 29 de agosto, Hercules Shepherd não tinha antecedentes criminais.

Os treinadores estavam interessados ​​em recrutar o jogador de basquete do colegial para suas equipes de faculdade. Recrutamento significaria uma grande bolsa de estudos que poderia ajudar Shepherd a realizar seus sonhos de se tornar um engenheiro. Mas sentando-se na cadeia, Shepherd faltava dois dias de aulas. Se ele faltasse mais dois, ele poderia ser expulso da escola.

O juiz Jackson olhou para cima. "Está bem hoje, Sr. Shepherd?" ele perguntou. Shepherd assentiu.

"Se ele ficar na cadeia por mais um mês e for expulso da escola, terá ramificações mais amplas", disse Magee.

"Devidamente anotado. Sr. Shepherd? Estou dando a você vínculo pessoal", disse Jackson. "Sua oportunidade de mudar isso começa agora. Faça isso, e você terá o mundo inteiro bem na sua frente." (Jackson posteriormente perdeu uma eleição em novembro e não é mais um juiz; seu adversário vencedor, no entanto, também suporta o uso do algoritmo pré-julgamento.)

Sorrindo, Shepherd saiu do tribunal. Naquela noite, ele foi levado para fora da prisão do condado de Cuyahoga; no dia seguinte, ele estava na aula. Shepherd diz que ele não teria condições de arcar com a fiança. A mãe de Shepherd está na prisão e seu pai idoso está na Previdência Social.

Seu defensor público disse que a pontuação baixa de Shepherd ajudou-o. Se ele não for preso novamente dentro de um ano, seu registro será limpo.

——

Julgando por algoritmo: Usando fatores de risco para pontuar réus

Em vez de deter réus criminais sob fiança em dinheiro, os tribunais dos Estados Unidos estão usando cada vez mais ferramentas algorítmicas de avaliação de risco para ajudar os juízes a decidir se um réu deve ser preso ou ficar livre enquanto aguarda julgamento.

Um desses modelos, agora usado por New Jersey e outros tribunais estaduais e regionais, é o Public Safety Assessment, desenvolvido pela Fundação Laura e John Arnold, sediada em Houston.

Os defensores de tais avaliações dizem que eles limitam julgamentos prejudiciais, enquanto os críticos dizem que podem transformar o julgamento em um exercício rotineiro - um que pode perpetuar preconceitos ocultos dentro do sistema de justiça criminal.

O modelo da Fundação Arnold usa esses nove fatores de risco para avaliar um réu, incluindo idade e condenações penais passadas. (Exclui raça, gênero, histórico de emprego e onde a pessoa mora.) São eles:

1. Idade na ofensa atual

2. Ofensa violenta atual

3. Cobrança pendente no momento da ofensa

4. condenação prévia por contravenção

5. Crença prévia por delito

6. Convicção violenta prévia

7. Falta prévia de comparecer a uma audiência nos últimos dois anos

8. Falha anterior em aparecer com mais de dois anos

9. Sentença prévia ao encarceramento

menu
menu