Los tribunales de todo el mundo empiezan a integrar algoritmos en decisiones que van desde la predicción de delitos hasta recomendaciones de sentencias. Lo que antes estaba exclusivamente en manos de jueces, ahora se comparte con sistemas de inteligencia artificial cuya lógica muchas veces permanece oculta.
Un informe elaborado por investigadores del Instituto Santa Fe y la Universidad Estatal de Arizona advierte que esta opacidad puede poner en riesgo la transparencia constitucional, un pilar fundamental del sistema judicial. El documento alerta que, si las decisiones no pueden ser explicadas ni cuestionadas, la confianza pública se erosiona.
La inquietud se centra en los llamados modelos de “caja negra”, algoritmos cuyo funcionamiento interno no es comprensible ni siquiera para quienes los diseñan. En justicia penal, esto significa que un acusado podría ser evaluado por un sistema que nadie puede interrogar o auditar plenamente.
Los expertos destacan que incluso si un sistema es estadísticamente justo, podría fallar en cumplir con los estándares de equidad procesal. La Constitución no solo protege el resultado, sino también el proceso. Por ello, un algoritmo que no rinda cuentas pone en peligro derechos fundamentales.
En 2024, el Instituto Nacional de Justicia de EE. UU. abrió una consulta pública para definir directrices sobre el uso de IA en tribunales. El grupo liderado por Cris Moore y Stephanie Forrest subrayó que la adopción de algoritmos solo es aceptable si aumenta la equidad y la transparencia.
Los investigadores propusieron que cualquier resultado de un sistema de IA se presente en términos claros y cuantitativos. En lugar de etiquetas vagas como “alto riesgo”, debería expresarse con probabilidades concretas, por ejemplo, “7 % de reincidencia violenta”. Esta precisión reduce malas interpretaciones.
La llamada “IA explicable” aparece como un camino intermedio. No se trata de que todos los ciudadanos comprendan los cálculos matemáticos, sino de garantizar que los datos usados, el procedimiento y las limitaciones estén disponibles para los acusados, abogados y jueces. El paralelismo con la Ley de Informes de Crédito refuerza esta idea.
Otra recomendación clave es que la IA nunca sustituya por completo a los jueces. Los algoritmos podrían actuar como asesores digitales que ofrezcan referencias o promedios, pero la decisión final debe seguir en manos humanas, con la obligación de explicar cómo se llegó a ella.
Los riesgos de delegar decisiones cruciales en sistemas opacos no son hipotéticos. Críticos recuerdan fallos en software de evaluación de riesgos que discriminaban por origen étnico o nivel socioeconómico. Estos casos ilustran la urgencia de controles estrictos antes de expandir su uso en tribunales.
La conclusión del informe es tajante, la justicia debe priorizar la rendición de cuentas sobre la eficiencia tecnológica. Si la IA no puede garantizar procesos transparentes, entonces no debería guiar decisiones que afectan la libertad y los derechos constitucionales de las personas.