Un juez en EEUU, conmovido por el testimonio de una víctima de homicidio ofrecido por su avatar creado con IA

La flexibilidad de la ley en el estado de Arizona (EEUU), que permite las declaraciones de las víctimas en cualquier formato digital, facilitó la admisión de este vídeo
Un juez en EEUU, conmovido por el testimonio de una víctima de homicidio ofrecido por su avatar creado con IA
Avatar de Christopher Pelkey creado por su hermana Stacey Wales I YOUTUBE

Un hecho sin precedentes en el estado de Arizona ha marcado un nuevo punto de inflexión en la intersección entre la tecnología y la administración de justicia. Por primera vez, la declaración de impacto de una víctima de homicidio fue presentada ante un tribunal a través de un avatar generado por inteligencia artificial. 

 

Este evento extraordinario no solo conmovió profundamente al juez que presidía el caso, sino que también ha desencadenado un intenso debate sobre el papel futuro de la inteligencia artificial en los procedimientos judiciales. 

 

Este hecho sin precedentes, que ha resonado a nivel nacional e internacional, pone de relieve cómo la creciente sofisticación de la IA está comenzando a hacer su incursión en ámbitos tradicionalmente reservados a la interacción humana, como el testimonio en sala.

 

El testimonio del "más allá"

La historia que condujo a este momento sin precedentes se remonta a un hecho trágico denominado en EEUU como "incidente de furia al volante", ocurrido en 2021 en Chandler, Arizona. Christopher Pelkey, un veterano del ejército estadounidense de 37 años que había servido en Irak y Afganistán, perdió la vida a manos de Gabriel Paul Horcasitas tras un altercado vial.

 

Este acto de violencia dejó una familia destrozada y un vacío irremplazable. Sin embargo, la búsqueda de justicia tomó un giro inesperado gracias a la iniciativa de Stacey Wales, hermana de Christopher. Movida por el deseo de darle voz a su hermano fallecido y de transmitir el espíritu de perdón que lo caracterizaba, Stacey concibió la idea de crear un avatar de inteligencia artificial que pudiera dirigirse al hombre que le quitó la vida.

El proceso de creación del avatar fue un esfuerzo colaborativo entre Stacey, su marido Tim Wales y un amigo de la familia, Scott Yentzer. A pesar del escepticismo inicial de su pareja, Stacey perseveró en su visión de utilizar la tecnología para honrar la memoria de su hermano. Para dar vida digital a Christopher, el equipo se basó en una grabación de video de aproximadamente cuatro minutos y medio, una fotografía de su funeral y un guión cuidadosamente redactado por Stacey.

 

El objetivo era replicar no solo la apariencia física de Christopher, sino también su voz y su manera de expresarse. Incluso recrear su risa, a partir de fragmentos de audio con ruido de fondo, representó un desafío técnico significativo. El resultado fue un avatar que, con una sorprendente similitud, pudo transmitir un mensaje conmovedor.

 

En el momento culminante de la audiencia de sentencia de Gabriel Horcasitas, el avatar de Christopher Pelkey se dirigió directamente al hombre que le disparó. Con una voz que evocaba la del fallecido, el avatar expresó: "A Gabriel Horcasitas, el hombre que me disparó, es una pena que nos encontráramos ese día en esas circunstancias. En otra vida probablemente podríamos haber sido amigos. Creo en el perdón y en un Dios que perdona. Todavía lo hago".

 

Este mensaje de perdón y la inesperada mención de una posible amistad en otras circunstancias resonaron profundamente en la sala del tribunal, y fue la primera vez que el avatar de IA de una víctima fallecida se dirigía a su agresor en un procedimiento judicial.

 

Reacción judicial y sentencia

La respuesta del juez del Tribunal Superior del Condado de Maricopa, Todd Lang, no se hizo esperar. Tras presenciar la declaración del avatar, el juez Lang expresó su profunda impresión con una frase que se ha citado ampliamente: "Me encantó esa IA, y gracias por eso".

 

El juez también comentó cómo, a pesar de la justificada ira de la familia, escuchó el perdón en el mensaje del avatar, un sentimiento que creía que el propio Horcasitas podría apreciar. Esta reacción positiva del juez destaca el impacto emocional que la presentación del avatar logró generar en un entorno típicamente formal y reservado.

Finalmente, Gabriel Paul Horcasitas fue sentenciado a 10 años y medio de prisión por el cargo de homicidio doloso. Aunque la fiscalía había solicitado una pena de nueve años, el juez Lang impuso la condena máxima posible para este delito. 

 

Debate abierto

El uso del avatar de IA en el caso de Christopher Pelkey ha abierto un amplio debate sobre la admisibilidad y las implicaciones éticas del uso de la inteligencia artificial en los tribunales. Si bien la IA se ha utilizado cada vez más en el sistema judicial para tareas administrativas, investigación legal y preparación de casos, su empleo para generar declaraciones de impacto de víctimas representa un territorio legal inexplorado. Hay que señalar que la flexibilidad de la ley de Arizona, que permite que las declaraciones de impacto de las víctimas se presenten en cualquier formato digital, facilitó la admisión del avatar en este caso.

 

Una de las principales preocupaciones que surgen es la cuestión de la autenticidad y la posible manipulación de pruebas mediante la creación de deepfakes

 

Inquietud legal

Gary Marchant, profesor de derecho de la Universidad Estatal de Arizona y miembro del nuevo comité sobre IA en los tribunales de Arizona, expresó su preocupación por el hecho de que esta tecnología podría abrir la puerta a que se intenten introducir cada vez más pruebas generadas por IA en los tribunales. Marchant advirtió que la facilidad con la que se pueden crear deepfakes y su potencial influencia en jueces y jurados son motivos de inquietud.

 

La perspectiva de otros expertos legales también refleja una mezcla de comprensión y cautela. Si bien algunos reconocen el valor emocional y la posible utilidad de permitir que las víctimas, incluso a través de representaciones digitales, expresen su dolor y sus sentimientos, otros enfatizan la necesidad de establecer límites y regulaciones claras para evitar el uso indebido de la IA en el sistema judicial.

 

Un contraste interesante se presenta con otro caso reciente ocurrido en Nueva York, donde un hombre intentó utilizar un avatar de IA como su abogado durante una audiencia judicial. 

Primer plano de un robot en el juicio

La jueza Sallie Manzanet-Daniels detuvo de inmediato el procedimiento, expresando su disgusto por no haber sido informada previamente y advirtiendo que no permitiría que su sala se utilizara como plataforma para lo que consideraba una autopromoción tecnológica

 

Esta reacción contrasta marcadamente con la del juez Lang en Arizona, lo que incide en la importancia del contexto y el propósito del uso de la IA en los tribunales.

 

Consideraciones éticas

Más allá de la mera admisibilidad legal, el uso de representaciones digitales de personas fallecidas en la corte plantea profundas consideraciones éticas

 

Si bien el avatar de Christopher Pelkey fue creado con la intención de transmitir un mensaje de perdón, la posibilidad de que esta tecnología se utilice para generar declaraciones falsas o manipuladas es motivo de preocupación.

 

La falta de transparencia en algunos algoritmos de IA y el potencial de sesgos inherentes en los datos de entrenamiento son aspectos que deben abordarse cuidadosamente para garantizar que el uso de la IA en los tribunales sea justo y equitativo. La hermana de Christopher Pelkey, Stacey Wales, reconoció que se acercaron a este proceso con ética y moral, conscientes del poder de esta herramienta.

Un primer plano de la estatua de la justicia

Riesgos y desafíos

El uso de avatares de IA en juicios está rodeado de controversia. Algunos de los puntos clave a considerar son:

 

  • Aceptabilidad y validez legal: ¿puede un avatar de IA sustituir el testimonio humano? Los jueces en algunos casos han rechazado el uso de avatares, enfatizando que no pueden reemplazar el testimonio directo.

 

  • Riesgos de mala interpretación: ¿podría un avatar de IA malinterpretar la ley o los hechos del caso, llevando a un veredicto erróneo? Es crucial establecer un marco regulatorio adecuado para evitar errores irreversibles.

 

  • Derechos de imagen y consentimiento: si el avatar imita rasgos físicos de una persona real, es fundamental obtener el consentimiento de esa persona para evitar reclamaciones legales por violación de derechos de imagen o reputación.

 

  • Transparencia y regulación: la falta de transparencia en el uso de estas tecnologías puede generar desconfianza y afectar la integridad de los procedimientos judiciales. Es necesario establecer límites claros y regulaciones para su integración en el ámbito legal.

 

El caso de Christopher Pelkey en Arizona representa un hito significativo en la aplicación de la inteligencia artificial en el ámbito judicial que, si bien abre la puerta a nuevas posibilidades para dar voz a las víctimas y potencialmente mejorar la eficiencia en ciertos aspectos de los procedimientos judiciales, también plantea serias interrogantes sobre la ética, la admisibilidad y la fiabilidad de la tecnología en la búsqueda de la justicia.

 

La necesidad de un debate continuo y la creación de marcos legales y éticos claros se vuelve imperativa para navegar este nuevo panorama tecnológico y garantizar que la administración de justicia siga siendo justa, equitativa y basada en la verdad.

Un juez en EEUU, conmovido por el testimonio de una víctima de homicidio ofrecido por su avatar creado con IA

Te puede interesar