Ir al contenido principal Ir al menú principal Ir al pie de página
18 de noviembre de 2025

Por Miriam Tovar (*)

¿Qué significa realmente hablar del derecho a un juez humano? ¿No es acaso redundante afirmar algo que parece obvio? Sin embargo, la irrupción de la inteligencia artificial (IA) en los sistemas judiciales ha obligado a replantear esta pregunta. En la actualidad, los tribunales de distintos países están experimentando con sistemas de IA que apoyan la labor judicial o incluso sugieren decisiones, lo que plantea un desafío ético y jurídico de enorme magnitud: ¿dónde termina la asistencia tecnológica y dónde comienza la sustitución del juicio humano?

Nuestra Constitución establece con claridad que la potestad de administrar justicia emana del pueblo y es ejercida por el Poder Judicial (artículo 138). El artículo 139 consagra los principios que rigen la administración de justicia: la independencia en el ejercicio de la función jurisdiccional, la exclusividad de la función judicial, la observancia del debido proceso, la tutela jurisdiccional efectiva y la motivación escrita de las resoluciones, entre otros. En el plano internacional, la Convención Americana sobre Derechos Humanos garantiza que toda persona tiene derecho a ser oída, con las debidas garantías, dentro de un plazo razonable, por un juez o tribunal competente, independiente e imparcial. Su artículo 8 establece además derechos mínimos como la presunción de inocencia, el derecho de defensa, la comunicación previa de los cargos y el derecho a recurrir del fallo ante un tribunal superior.

El Tribunal Constitucional peruano ha interpretado que la tutela judicial efectiva constituye un derecho de naturaleza procesal que permite a toda persona acceder a los órganos jurisdiccionales y obtener una decisión eficazmente cumplida[1]. Asimismo, ha señalado que ninguna autoridad, salvo el legislador, puede limitar o impedir este derecho[2]. En otras palabras, no basta con permitir el acceso al proceso: la justicia debe ser real, independiente y eficaz.

Pero hablar hoy de independencia judicial exige reconocer un nuevo desafío: la influencia de la inteligencia artificial en las decisiones jurisdiccionales. Tradicionalmente, la independencia del juez podía verse amenazada por presiones externas (de otros poderes del Estado, medios de comunicación o intereses económicos), o internas (de autoridades judiciales jerárquicamente superiores). Sin embargo, hoy emerge una nueva forma de riesgo: la dependencia tecnológica. Programas diseñados para “apoyar” la labor judicial pueden terminar sustituyendo, de facto, el razonamiento humano. Como advierte la UNESCO, la sobrecarga procesal y la falta de recursos podrían llevar a que jueces y juezas utilicen de manera inadecuada la IA, confiando excesivamente en sus resultados[3].

El Kit de herramientas global sobre IA y el Estado de derecho para el poder judicial, aborda diversos riesgos asociados al uso de la inteligencia artificial en la administración de justicia. Entre ellos, pueden destacarse tres grandes dimensiones interrelacionadas. En primer lugar, la excelencia judicial y la gestión de datos, pues los sistemas de IA pueden incorporar prejuicios raciales, de género o de clase, promoviendo el llamado sesgo automatizado, que condiciona o limita la capacidad del juez para valorar autónomamente los hechos y el derecho. Cuando los datos empleados ya reflejan desigualdades estructurales, los resultados tienen a reproducirlas. En segundo lugar, la privacidad y la seguridad, dado que el manejo masivo de información sensible incrementa la posibilidad de filtraciones, hackeos o uso indebido de datos personales. Finalmente, el documento señala los efectos sobre el Estado de derecho y el acceso a la justicia, advirtiendo que la IA puede afectar la transparencia, la equidad entre las partes y la confianza pública en las decisiones judiciales.

Detengámonos en el primer punto: el sesgo. La UNESCO enfatiza que la IA no es neutral. Los algoritmos reflejan las preferencias y prejuicios de quienes los programan y de los datos con los que se entrenan. El resultado puede ser la reproducción de patrones discriminatorios invisibles. Ejemplos comunes son el sesgo racial y de género, donde los sistemas replican la subrepresentación de mujeres o minorías en los conjuntos de datos.

El Informe del Secretario General de las Naciones Unidas sobre los derechos humanos en la administración de justicia (A/79/296) advierte, en esa línea, que los algoritmos funcionan como “cajas negras” difíciles de auditar, lo que genera riesgos para la igualdad ante la ley y la no discriminación[4]. A su vez, el Comité para la Eliminación de la Discriminación Racial ha señalado que las herramientas de evaluación de riesgo en procesos penales pueden producir resultados sesgados al incorporar variables como el código postal (vinculado a zonas segregadas), datos desactualizados o información incompleta[5]. En la práctica, esto significa que determinados grupos, como poblaciones racializadas, mujeres o personas en situación de pobreza, enfrentan una vigilancia más intensa y sanciones más severas.

Ahora bien, uno de los sesgos más graves en el ámbito judicial es el denominado “sesgo de automatización”, que consiste en la tendencia de los jueces a aceptar sin cuestionamiento los resultados o recomendaciones de una máquina, atribuyéndoles una infalibilidad inexistente[6]. Esta dependencia puede generar una pérdida progresiva de las capacidades de análisis y deliberación de los jueces, lo que el Informe de la Relatora Especial sobre la independencia de magistrados y abogados, Margaret Satterthwaite (A/80/169), describe como una “descualificación judicial”[7]. A largo plazo, advierte, este proceso puede erosionar el principio de independencia judicial, desplazando el poder de interpretar el derecho hacia los programadores y las empresas tecnológicas que diseñan los sistemas. En el mismo informe, Satterthwaite advierte además sobre un fenómeno que denomina apoderamiento epistémico de la IA, mediante el cual los algoritmos moldean qué información se considera relevante o verdadera, afectando la forma en que se construye el razonamiento jurídico. Esto agrava el riesgo de que la tecnología no solo influya en la decisión judicial, sino también en cómo se interpreta y aplica el derecho.

El problema no se limita al sesgo técnico o de automatización: también alcanza a la falta de transparencia. Cuando las decisiones se basan en algoritmos opacos, las partes no pueden saber cómo o por qué se llega a un resultado. Esto afecta la igualdad de armas procesales y vulnera el derecho de defensa, pues impide impugnar o cuestionar una decisión basada en IA. La Relatora advierte que el uso de herramientas de IA en la justicia puede implicar una injerencia en la independencia judicial, dado que los jueces y juezas deben resolver sus asuntos sin ningún tipo de intromisión. Señala además que la imparcialidad judicial exige no solo que los jueces sean independientes en su razonamiento, sino también que sus decisiones parezcan imparciales a un observador razonable, incluso frente a resoluciones que, aunque aparentan objetividad, responden en realidad a lógicas algorítmicas no controladas por humanos.

En el mismo Informe, Satterthwaite advierte que los jueces pueden incluso sufrir represalias por ejercer su discrecionalidad judicial, al apartarse de las soluciones sugeridas por sistemas de IA[8]. En esa línea, subraya que el derecho a un tribunal independiente e imparcial implica garantizar el acceso a un juez humano, y que el uso de IA nunca debe sustituir el juicio ni la empatía inherentes a la función judicial[9].

El riesgo no es teórico. En Estados Unidos, el algoritmo COMPAS, utilizado para evaluar la probabilidad de reincidencia de las personas en diferentes etapas del proceso penal, fue cuestionado por clasificar erróneamente a acusados negros como de “alto riesgo” más veces que a acusados blancos con antecedentes similares. Este sistema calcula la reincidencia mediante un análisis que pondera factores criminógenos e históricos, e incorpora variables basadas en información privada y altamente subjetiva, como las “escalas de ocio” o el “fracaso de socialización”[10]. Casos como este demuestran que los sistemas predictivos tienden a reproducir las desigualdades estructurales ya presentes en la sociedad.

En América Latina, el peligro radica además en la brecha digital: la falta de infraestructura tecnológica, bases de datos representativas y personal judicial capacitado. La Relatora advierte que este escenario podría derivar en una “justicia a dos velocidades”: una digital y otra analógica, donde los países del Sur Global quedan rezagados en materia de justicia digital y, al mismo tiempo, expuestos a tecnologías importadas sin suficiente control ético ni contextualización cultural[11].

Estas advertencias contrastan con una aparente normalización y uso cotidiano de herramientas de IA por parte de operadores jurídicos. En marzo de 2023, un juez peruano citó a ChatGPT en una sentencia sobre pensión de alimentos para decidir qué fórmula matemática debía aplicar, sin explicar los criterios ni los límites de su consulta[12]. En México, un magistrado del Tribunal Electoral utilizó la misma herramienta durante una audiencia pública para ilustrar cómo podría motivarse una resolución judicial con ayuda de la IA[13]. En ambos casos, se evidenció una peligrosa naturalización del uso de sistemas que, como señala UNESCO, “alucinan”: producen resultados incorrectos de manera convincente, generando una falsa apariencia de precisión[14]. Detrás de esa confianza acrítica se esconde una amenaza más profunda: la sustitución del juicio humano por el dictamen estadístico.

Frente a este panorama, la comunidad internacional ha empezado a trazar límites. En 2024, la Unión Europea aprobó el Reglamento de Inteligencia Artificial (AI Act), que clasifica como de alto riesgo los sistemas utilizados por los tribunales para asistir a jueces y juezas en la interpretación de los hechos y del derecho, al reconocer su potencial impacto sobre el derecho a un recurso efectivo y a un juicio justo[15]. El considerando 61 advierte que el uso de estas herramientas puede apoyar la labor judicial, pero no debe sustituir el poder de decisión ni la independencia de los jueces, subrayando que la decisión final debe seguir siendo una actividad humana[16]. En la misma línea, el Consejo de Europa adoptó el Convenio Marco sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho, tratado aún no en vigor, en cuya elaboración participó también el Perú como Estado observador. Este instrumento reafirma la obligación de los Estados de garantizar que todo el ciclo de vida de la IA sea coherente con los derechos humanos y el Estado de derecho, proteja la independencia judicial y no se utilice para socavar la integridad de las instituciones democráticas ni para reproducir discriminaciones estructurales[17].

La línea roja, entonces, se traza allí donde la tecnología amenaza con reemplazar la deliberación humana. El derecho a un juez humano no se limita a la presencia física de quien dicta una sentencia: implica reconocer la dignidad y la singularidad de las personas que acuden a la justicia, así como la capacidad de comprender el contexto, escuchar y ponderar valores. Solo así es posible aplicar el derecho con sentido de humanidad.

No se puede alcanzar mayor eficiencia en la administración de justicia a costa de su esencia. La IA puede apoyar tareas administrativas o facilitar el análisis de información, pero su intervención en la decisión judicial debe ser siempre complementaria. La transparencia, la motivación suficiente y la rendición de cuentas son principios irrenunciables. En definitiva, el derecho a un juez humano no es una formalidad, sino una garantía frente a la automatización de la justicia y una condición indispensable para preservar el Estado del derecho.

(*) Integrante del Área Académica y de Investigaciones del IDEHPUCP.


[1] Tribunal Constitucional del Perú. (2006). Expediente N.º 00763-2005-AA, Resolución del Tribunal Constitucional, fundamento 6. https://tc.gob.pe/jurisprudencia/2006/00763-2005-AA.html.

[2] Tribunal Constitucional del Perú. (2007). Expediente N.º 02438-2005-AA, Resolución del Tribunal Constitucional, fundamento 6. https://tc.gob.pe/jurisprudencia/2007/02438-2005-AA%20Resolucion.pdf.

[3] UNESCO. (2023). Kit de herramientas global sobre inteligencia artificial y Estado de derecho para el poder judicial (p. 57).https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa.

[4] Naciones Unidas. (2024). Informe del Secretario General sobre los derechos humanos en la administración de justicia (A/79/296), p.4. . https://docs.un.org/es/A/79/296

[5] Comité para la Eliminación de la Discriminación Racial. (2020). Recomendación general núm. 36 (2020), relativa a la prevención y la lucha contra la elaboración de perfiles raciales por los agentes del orden (CERD/C/GC/36), párr. 32. Naciones Unidas. https://docs.un.org/es/CERD/C/GC/36

[6] Naciones Unidas. (2025). Informe de la Relatora Especial sobre la independencia de los magistrados y abogados, Margaret Satterthwaite: La inteligencia artificial en los sistemas judiciales: promesas y escollos (A/80/169), pp. 6. https://www.ohchr.org/es/documents/thematic-reports/a80169-ai-judicial-systems-promises-and-pitfalls-report-special

[7] Ibid., pp. 19-20.

[8] Ibid., p.6

[9] Ibid., p.18

[10] Del Pilar, M., Sanabria, J., & Dinas-Hurtado, K. (2022). Uso del algoritmo COMPAS en el proceso penal y los riesgos a los derechos humanos. Revista Brasileira de Direito Processual Penal, 8(1), 275–310, p. 284. https://revista.ibraspp.com.br/RBDPP/article/view/615/438

[11] Naciones Unidas. (2025). Informe de la Relatora Especial sobre la independencia de los magistrados y abogados, Margaret Satterthwaite: La inteligencia artificial en los sistemas judiciales: promesas y escollos (A/80/169), pp. 16. https://www.ohchr.org/es/documents/thematic-reports/a80169-ai-judicial-systems-promises-and-pitfalls-report-special

[12] Gutiérrez, J. D. (2023). Judges and magistrates in Peru and Mexico have ChatGPT fever. Tech Policy Press. https://www.techpolicy.press/judges-and-magistrates-in-peru-and-mexico-have-chatgpt-fever/

[13] Ibid.

[14] UNESCO. (2023). Kit de herramientas global sobre inteligencia artificial y Estado de derecho para el poder judicial (p. 70).https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa.

[15] Unión Europea. (2024). Anexo III: Sistemas de IA de alto riesgo contemplados en el apartado 2 del artículo 6, art. 8(a). https://artificialintelligenceact.eu/es/annex/3/

[16] Unión Europea. (2024). Considerando 61 del Reglamento de Inteligencia Artificial (AI Act). https://artificialintelligenceact.eu/es/recital/61/

[17] Council of Europe. (2024). Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (CETS No. 225), arts. 1, 5 y 10. https://rm.coe.int/1680afae3c