Vítima de homicídio “revive” com ajuda de IA e perdoa seu assassino durante julgamento

Vítima de homicídio "revive" com ajuda de IA e perdoa seu assassino durante julgamento
Imagem destaque: ChatGPT

Um tribunal do Arizona protagonizou um momento inédito na interseção entre tecnologia e justiça: a sentença de Gabriel Paul Horcasitas, condenado pela morte de Christopher Pelkey, contou com um depoimento da própria vítima por meio de inteligência artificial (IA).

Horcasitas, de 54 anos, foi condenado à pena máxima de 10 anos e meio de prisão pelo homicídio culposo de Pelkey, ocorrido em um caso de violência no trânsito em novembro de 2021. O julgamento aconteceu no Tribunal Superior do Condado de Maricopa, e a pena foi aplicada na semana passada pelo juiz Todd Lang, que considerou as circunstâncias do crime e o testemunho apresentado.

A declaração da vítima foi gerada por IA e recriou a aparência, voz e movimentos de Pelkey de forma realista, sendo exibida à corte com a permissão do juiz. No vídeo, o “Chris virtual” dirigiu-se ao homem que o matou com uma mensagem de empatia e perdão.

“É uma pena que tenhamos nos encontrado nessas circunstâncias. Em outra vida, talvez pudéssemos ser amigos. Eu acredito no perdão”.

De acordo com a NBC News, a ideia partiu da irmã de Pelkey, Stacey Wales, e seu cunhado, ambos profissionais da área de inteligência artificial.

Stacey contou que passou dois anos tentando escrever uma declaração para o tribunal, mas foi apenas na véspera do novo julgamento que percebeu que a voz mais autêntica seria a do próprio Chris.

O juiz Lang afirmou ter reconhecido a autenticidade da mensagem e o espírito de perdão nela contido, o que revelava o caráter da vítima conforme descrito por seus entes queridos. Apesar disso, ele manteve a pena máxima, justificando que a gravidade do crime assim exigia.

A defesa de Horcasitas criticou o uso do recurso, alegando que a apresentação por IA pode gerar base para apelação, por ser excessivamente emocional e potencialmente influenciar a decisão judicial.

O professor de direito da Universidade Estadual do Arizona, Gary Marchant, disse que embora reconheça o cuidado da família, se preocupa com os precedentes que o caso pode estabelecer.

“Apesar da intenção louvável, o que se viu ali foi uma criação artificial. Isso nos leva a um terreno perigoso, onde a linha entre o real e o simulado começa a se desfazer dentro dos tribunais”.

Leia mais: Delírios digitais: Como o ChatGPT está alimentando crises espirituais e teorias da conspiração

Deixe seu comentário: