Un hecho sin precedentes en el estado de Arizona ha marcado un nuevo punto de inflexión en la intersección entre la tecnología y la administración de justicia. Por primera vez, la declaración de impacto de una víctima de homicidio fue presentada ante un tribunal a través de un avatar generado por inteligencia artificial.
Este evento extraordinario no solo conmovió profundamente al juez que presidía el caso, sino que también ha desencadenado un intenso debate sobre el papel futuro de la inteligencia artificial en los procedimientos judiciales.
Este hecho sin precedentes, que ha resonado a nivel nacional e internacional, pone de relieve cómo la creciente sofisticación de la IA está comenzando a hacer su incursión en ámbitos tradicionalmente reservados a la interacción humana, como el testimonio en sala.
La historia que condujo a este momento sin precedentes se remonta a un hecho trágico denominado en EEUU como "incidente de furia al volante", ocurrido en 2021 en Chandler, Arizona. Christopher Pelkey, un veterano del ejército estadounidense de 37 años que había servido en Irak y Afganistán, perdió la vida a manos de Gabriel Paul Horcasitas tras un altercado vial.
Este acto de violencia dejó una familia destrozada y un vacío irremplazable. Sin embargo, la búsqueda de justicia tomó un giro inesperado gracias a la iniciativa de Stacey Wales, hermana de Christopher. Movida por el deseo de darle voz a su hermano fallecido y de transmitir el espíritu de perdón que lo caracterizaba, Stacey concibió la idea de crear un avatar de inteligencia artificial que pudiera dirigirse al hombre que le quitó la vida.
El proceso de creación del avatar fue un esfuerzo colaborativo entre Stacey, su marido Tim Wales y un amigo de la familia, Scott Yentzer. A pesar del escepticismo inicial de su pareja, Stacey perseveró en su visión de utilizar la tecnología para honrar la memoria de su hermano. Para dar vida digital a Christopher, el equipo se basó en una grabación de video de aproximadamente cuatro minutos y medio, una fotografía de su funeral y un guión cuidadosamente redactado por Stacey.
El objetivo era replicar no solo la apariencia física de Christopher, sino también su voz y su manera de expresarse. Incluso recrear su risa, a partir de fragmentos de audio con ruido de fondo, representó un desafío técnico significativo. El resultado fue un avatar que, con una sorprendente similitud, pudo transmitir un mensaje conmovedor.
En el momento culminante de la audiencia de sentencia de Gabriel Horcasitas, el avatar de Christopher Pelkey se dirigió directamente al hombre que le disparó. Con una voz que evocaba la del fallecido, el avatar expresó: "A Gabriel Horcasitas, el hombre que me disparó, es una pena que nos encontráramos ese día en esas circunstancias. En otra vida probablemente podríamos haber sido amigos. Creo en el perdón y en un Dios que perdona. Todavía lo hago".
Este mensaje de perdón y la inesperada mención de una posible amistad en otras circunstancias resonaron profundamente en la sala del tribunal, y fue la primera vez que el avatar de IA de una víctima fallecida se dirigía a su agresor en un procedimiento judicial.
La respuesta del juez del Tribunal Superior del Condado de Maricopa, Todd Lang, no se hizo esperar. Tras presenciar la declaración del avatar, el juez Lang expresó su profunda impresión con una frase que se ha citado ampliamente: "Me encantó esa IA, y gracias por eso".
El juez también comentó cómo, a pesar de la justificada ira de la familia, escuchó el perdón en el mensaje del avatar, un sentimiento que creía que el propio Horcasitas podría apreciar. Esta reacción positiva del juez destaca el impacto emocional que la presentación del avatar logró generar en un entorno típicamente formal y reservado.
Finalmente, Gabriel Paul Horcasitas fue sentenciado a 10 años y medio de prisión por el cargo de homicidio doloso. Aunque la fiscalía había solicitado una pena de nueve años, el juez Lang impuso la condena máxima posible para este delito.
El uso del avatar de IA en el caso de Christopher Pelkey ha abierto un amplio debate sobre la admisibilidad y las implicaciones éticas del uso de la inteligencia artificial en los tribunales. Si bien la IA se ha utilizado cada vez más en el sistema judicial para tareas administrativas, investigación legal y preparación de casos, su empleo para generar declaraciones de impacto de víctimas representa un territorio legal inexplorado. Hay que señalar que la flexibilidad de la ley de Arizona, que permite que las declaraciones de impacto de las víctimas se presenten en cualquier formato digital, facilitó la admisión del avatar en este caso.
Una de las principales preocupaciones que surgen es la cuestión de la autenticidad y la posible manipulación de pruebas mediante la creación de deepfakes.
Gary Marchant, profesor de derecho de la Universidad Estatal de Arizona y miembro del nuevo comité sobre IA en los tribunales de Arizona, expresó su preocupación por el hecho de que esta tecnología podría abrir la puerta a que se intenten introducir cada vez más pruebas generadas por IA en los tribunales. Marchant advirtió que la facilidad con la que se pueden crear deepfakes y su potencial influencia en jueces y jurados son motivos de inquietud.
La perspectiva de otros expertos legales también refleja una mezcla de comprensión y cautela. Si bien algunos reconocen el valor emocional y la posible utilidad de permitir que las víctimas, incluso a través de representaciones digitales, expresen su dolor y sus sentimientos, otros enfatizan la necesidad de establecer límites y regulaciones claras para evitar el uso indebido de la IA en el sistema judicial.
Un contraste interesante se presenta con otro caso reciente ocurrido en Nueva York, donde un hombre intentó utilizar un avatar de IA como su abogado durante una audiencia judicial.
La jueza Sallie Manzanet-Daniels detuvo de inmediato el procedimiento, expresando su disgusto por no haber sido informada previamente y advirtiendo que no permitiría que su sala se utilizara como plataforma para lo que consideraba una autopromoción tecnológica.
Esta reacción contrasta marcadamente con la del juez Lang en Arizona, lo que incide en la importancia del contexto y el propósito del uso de la IA en los tribunales.
Más allá de la mera admisibilidad legal, el uso de representaciones digitales de personas fallecidas en la corte plantea profundas consideraciones éticas.
Si bien el avatar de Christopher Pelkey fue creado con la intención de transmitir un mensaje de perdón, la posibilidad de que esta tecnología se utilice para generar declaraciones falsas o manipuladas es motivo de preocupación.
La falta de transparencia en algunos algoritmos de IA y el potencial de sesgos inherentes en los datos de entrenamiento son aspectos que deben abordarse cuidadosamente para garantizar que el uso de la IA en los tribunales sea justo y equitativo. La hermana de Christopher Pelkey, Stacey Wales, reconoció que se acercaron a este proceso con ética y moral, conscientes del poder de esta herramienta.
El uso de avatares de IA en juicios está rodeado de controversia. Algunos de los puntos clave a considerar son:
El caso de Christopher Pelkey en Arizona representa un hito significativo en la aplicación de la inteligencia artificial en el ámbito judicial que, si bien abre la puerta a nuevas posibilidades para dar voz a las víctimas y potencialmente mejorar la eficiencia en ciertos aspectos de los procedimientos judiciales, también plantea serias interrogantes sobre la ética, la admisibilidad y la fiabilidad de la tecnología en la búsqueda de la justicia.
La necesidad de un debate continuo y la creación de marcos legales y éticos claros se vuelve imperativa para navegar este nuevo panorama tecnológico y garantizar que la administración de justicia siga siendo justa, equitativa y basada en la verdad.