La IA aparece en los casos judiciales, pero sólo un jurado humano puede soportar el peso moral de evaluar la culpabilidad

REDACCION USA TODAY ESPAÑOL
10 Lectura mínima

“Mercy”, una película estrenada en enero de 2026, describe un Los Ángeles distópico en un futuro cercano: una ciudad plagada de violencia, falta de vivienda y disturbios civiles. La respuesta de California es establecer el Tribunal Capital Merci, que estará dirigido en su totalidad por un robot de inteligencia artificial llamado Juez Maddock. Un juez puede analizar las pruebas, determinar si se alcanza el umbral de culpabilidad y ejecutar al acusado, todo en 90 minutos.

El actor Chris Pratt interpreta a un oficial de policía llamado Chris Raven, acusado de asesinar a su esposa. Si quiere salir vivo del Tribunal de Misericordia, debe hacer todo lo posible para reducir su “índice de culpabilidad” -la evaluación de la IA sobre si él es el asesino- del 97,5% al ​​92%.

Puede que los jueces de IA todavía estén en el ámbito de la ciencia ficción, pero las herramientas de IA están entrando a la sala del tribunal. Las herramientas de evaluación de riesgos ahora ayudan a los jueces a tomar decisiones sobre libertad bajo fianza, y abogados y jueces han utilizado inteligencia artificial para investigar precedentes legales. Algunos jueces incluso están experimentando con él para formular veredictos, y las simulaciones han utilizado herramientas de inteligencia artificial para reemplazar a los jurados humanos.

“Mercy” no parece tomarse demasiado en serio como comentario sobre el sistema legal. Pero la idea de que un robot de IA pueda determinar un veredicto evaluando las pruebas distorsiona el significado del juicio legal.

Como académico que estudia a los jurados, creo que la inteligencia artificial oscurece la importancia de lo que los tomadores de decisiones aportan a la tarea y por qué son esenciales para la legitimidad del sistema legal. Desde la Edad Media, los jurados han tenido que lidiar con la dificultad de determinar la culpabilidad, incluidas serias reservas sobre la calidad de las pruebas, la legitimidad del castigo y la imposibilidad de conocer plenamente el caso.

Funciones, no errores

La ponderación de las pruebas en un caso penal no se puede medir fácilmente en una pizarra. Interpretar lo que esto significa suele ser difícil, no sólo intelectualmente sino también emocionalmente. La gravedad de la posible inflicción de dolor a una persona inocente es una parte esencial del veredicto.

Los jurados están conectados en una red de relaciones con el acusado, la víctima y otras personas afectadas por el delito. No pueden evitar pensar en las consecuencias del crimen y el veredicto, e imaginar cómo sería estar en el lugar del acusado. ¿Cómo podría un jurado no dudar de su decisión con todos estos factores pesando sobre ellos?

La banca de un juez y el jurado en una sala del tribunal federal Howard M. Metzenbaum en Cleveland. Archivo Carol M. Highsmith, Biblioteca del Congreso vía Wikimedia Commons

Los sistemas de inteligencia artificial están entrenados para maximizar la certeza predictiva: es decir, ofrecen sugerencias basadas en patrones previos o en el entrenamiento al que han sido sometidos. No pueden sopesar diferentes resultados a la luz de experiencias pasadas o ideales colectivos. Obtener información de la inteligencia artificial puede parecer un referente en el espinoso asunto de la compleja toma de decisiones morales y legales, pero es la respuesta equivocada a la pregunta de si alguien debería ser castigado por el Estado.

El filósofo Brian Cantwell Smith ha argumentado que si bien la inteligencia artificial puede tomar decisiones poderosas y calculadoras, el juicio requiere algo más: la deliberación humana sobre cómo aplicar ideales éticos en condiciones particulares y lidiar con las opiniones de otros sobre lo que está en juego. No es ni puramente racional ni puramente emocional. Para asumir la responsabilidad de su propia decisión, un jurado necesita un veredicto, no un mero cálculo inspirado en lo que una máquina considera el resultado óptimo.

Luchando con la duda

Es probable que los sistemas de inteligencia artificial sigan mejorando su desempeño en tareas de referencia relevantes para el derecho y la jurisprudencia (ayudar en la investigación, identificar patrones en grandes cantidades de evidencia, acelerar las tareas administrativas), pero no pueden realizar la tarea de los jurados por sí solos. Esto es especialmente cierto en el caso de la duda: si bien la herramienta de inteligencia artificial tiene en cuenta la cantidad de incertidumbre, los jurados deben estar en sintonía con la calidad de su incertidumbre. Deben sopesar si esto indica la necesidad de un mayor debate o si la evidencia es insuficiente.

Se pidió a los jurados que determinaran si la fiscalía había probado su caso “más allá de toda duda razonable”. Esto debería establecer un listón muy alto para la evidencia y para la confianza del jurado en su significado. Sin embargo, lidiar con lo que significa el estándar de duda razonable es uno de los aspectos intelectualmente más desafiantes de ser miembro de un jurado. Los jueces suelen dar una descripción mínima a los miembros del jurado, diciendo que deben estar firmemente convencidos antes de condenar a alguien, por ejemplo. Cada grupo de jurados debe discutir cómo interpretar el estándar y si se cumple el umbral probatorio.

La investigación realizada por el abogado James K. Whitman sobre la historia de la duda razonable tiene sus orígenes en la Edad Media. Los jurados cristianos tenían miedo de asumir las tareas de juicio y castigo, que creían que estaban en manos de Dios.

Finalmente, hacia el siglo XVIII, los tribunales codificaron la frase “culpabilidad más allá de toda duda razonable” para reconocer las dudas humanas sobre el papel de los jurados en la sentencia. No se requiere que los jurados sean omnipotentes. La confianza en el juicio puede coexistir con la correspondiente ambivalencia sobre el proceso y la propia falibilidad.

Para condenar, el jurado debe ser unánime, un requisito que Whitman sugirió que podría brindar “consuelo moral” a los mortales que emiten un veredicto de culpabilidad. La unanimidad eleva el listón de la evidencia y también permite “a los doce compartir la pesada responsabilidad moral del juicio y, por lo tanto, repartirlo entre ellos”.

Es un panorama moral distinto: ni juicio divino ni cálculo algorítmico. Una sala donde la gente delibera puede parecer menos eficiente que la inteligencia artificial, pero es un componente necesario de la legitimidad moral del sistema de justicia. Luchar contra las dudas sobre las pruebas, el veredicto y su impacto en el mundo es una manera de que los jurados recuerden su responsabilidad; no es un paso que deba borrarse en el camino hacia el juicio. La decisión del jurado simboliza la voluntad de asumir la responsabilidad de dictar sentencia.

El boceto muestra una habitación abarrotada con dos filas de personas sentadas, algunas negras y otras blancas, mientras un hombre blanco las señala y habla.

Se necesitan todos los jurados para dictar una condena, lo que eleva el nivel de la evidencia. MPI/Getty Images Exclusivamente humano

La IA no puede reemplazar a los jueces y jurados humanos, pero puede ayudarlos a ver su tarea con mayor claridad.

En el siglo XIX, Karl Marx utilizó el término “ser-especie” para referirse a las actividades conscientes y decididas que sólo los humanos pueden realizar, especialmente las actividades creativas. Hoy, ante la penetración de la inteligencia artificial, vale la pena considerar dónde queremos experimentar el sentido de existencia de la especie.

Al aislar ciertas partes de nuestras vidas de la IA, podemos practicar la incomodidad que puede surgir al no tener una herramienta fácil que nos diga qué hacer, ya sea en la sala del jurado o en cualquier otro lugar. Las decisiones que causan malestar suelen ser aquellas que nos obligan a elegir entre diferentes valores, y debemos estar preparados para vivir con las consecuencias.

Es comprensible fantasear con que las herramientas de inteligencia artificial nos liberarán de la tarea confusa, tediosa y emocionalmente agotadora de tomar decisiones legales penales. Pero la gobernanza colectiva es algo que sólo los humanos pueden lograr: muy conscientes de nuestras capacidades tanto para el bien como para el mal.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo