España regula el uso de la IA en los juzgados
España regula el uso de la IA en los juzgados

España regula el uso de la IA en los juzgados

España ha dado un paso decisivo en la regulación del uso de la inteligencia artificial en el ámbito judicial. El Pleno del Consejo General del Poder Judicial (CGPJ) aprobó el pasado 28 de enero la Instrucción 2/2026, publicada en el Boletín Oficial del Estado (BOE) el 30 de enero de 2026, que establece un marco restrictivo y operativo para el empleo de sistemas de IA por jueces y magistrados en España.

La norma fija como principio central que únicamente podrán utilizarse herramientas de inteligencia artificial facilitadas por la Administración competente o por el propio CGPJ. Estas deberán operar siempre bajo control humano efectivo, haber superado auditorías previas y, en ningún caso, podrán adoptar decisiones automatizadas. La instrucción subraya expresamente que la IA no puede sustituir la función jurisdiccional ni condicionar la independencia judicial.

Contexto normativo europeo y nacional

La instrucción se enmarca en el Reglamento (UE) 2024/1689, que clasifica como de alto riesgo los sistemas de inteligencia artificial destinados a ser utilizados por autoridades judiciales y exige garantías reforzadas de transparencia, supervisión humana y calidad técnica.

Alfredo Collosa publica un libro sobre la IA en el sector público

En el plano nacional, la norma conecta con el Real Decreto-ley 6/2023, relativo a la transformación digital de la Justicia, y con el Estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), así como con el entorno controlado de pruebas previsto en el Real Decreto 817/2023. Este marco regula la supervisión, los ensayos previos y la evaluación de conformidad de los sistemas de IA considerados de alto riesgo.

Principios rectores del uso de la IA judicial

La Instrucción 2/2026 establece una serie de principios destinados a garantizar un uso de la inteligencia artificial compatible con los derechos fundamentales de los ciudadanos. En primer lugar, se exige un control humano efectivo, lo que implica que los sistemas de IA no pueden operar de manera autónoma en la valoración de hechos, pruebas o en la interpretación del Derecho. La decisión final debe recaer siempre en el juez o magistrado.

En segundo término, la norma consagra el principio de no sustitución y responsabilidad judicial, estableciendo que la responsabilidad plena y exclusiva de las resoluciones corresponde a jueces y magistrados, con independencia de que se hayan utilizado herramientas de IA como apoyo.

Asimismo, se destacan los principios de independencia, proporcionalidad y prevención de sesgos, obligando a evitar cualquier condicionamiento de la libertad de criterio judicial y a adoptar medidas específicas para detectar y mitigar posibles sesgos algorítmicos.

Sistemas permitidos y usos autorizados

La instrucción limita el uso de la IA en la función jurisdiccional exclusivamente a los sistemas facilitados por la Administración o por el CGPJ. Cualquier otra herramienta queda prohibida, salvo en usos de estudio con fuentes abiertas y sin incorporación de datos judiciales.

Los usos autorizados son tasados y deben realizarse siempre bajo control humano efectivo y responsabilidad judicial. Entre ellos se incluyen la búsqueda y localización de información jurídica, como la identificación de normativa, jurisprudencia y doctrina relevante, así como la recuperación de antecedentes procesales o documentales.

También se permite el análisis, clasificación y estructuración de información para apoyar el estudio de los asuntos, incluyendo la organización de expedientes mediante metadatos o resúmenes. Del mismo modo, se autoriza la elaboración de esquemas, resúmenes o borradores de trabajo interno, siempre que no tengan carácter decisorio ni sustituyan la redacción personal de las resoluciones judiciales.

La IA puede emplearse, además, como apoyo a tareas organizativas o auxiliares relacionadas con la gestión del conocimiento jurídico y la preparación del trabajo jurisdiccional.

Los borradores generados por sistemas de IA pueden utilizarse como apoyo interno, pero requieren una revisión, validación crítica y personal por parte del juez o magistrado. En ningún caso constituyen decisiones automatizadas. El sistema debe permitir que el borrador se genere únicamente a voluntad del juez y que sea completamente modificable.

Control de calidad y auditoría previa

La instrucción exige un control de calidad y una auditoría previa por parte del CGPJ antes del despliegue de cualquier sistema de IA. Los sistemas puestos a disposición deberán someterse a una evaluación técnica previa que verifique su idoneidad para fines jurisdiccionales, incluyendo comprobaciones sobre precisión, robustez, trazabilidad y ausencia de sesgos relevantes.

Asimismo, se establece la obligación de contar con una auditoría documental y de procesos. Esto implica disponer de documentación técnica detallada, como model cards, data sheets, registros de entrenamiento y control de versiones, así como de procedimientos que permitan auditar el ciclo de vida completo del sistema.

La norma también remite al marco de pruebas en entornos controlados previsto en el Real Decreto 817/2023, lo que sugiere la realización de pruebas piloto y evaluaciones de conformidad antes de cualquier despliegue operativo.

Usos expresamente prohibidos

La Instrucción 2/2026 establece una serie de prohibiciones explícitas para proteger la independencia judicial y los derechos fundamentales. Queda prohibida la sustitución, automatización o delegación de la toma de decisiones judiciales, así como la valoración de hechos o pruebas o la interpretación y aplicación del Derecho.

También se prohíbe cualquier uso que condicione directa o indirectamente la independencia o la libertad de criterio del juez. No podrán incorporarse a resoluciones contenidos generados por IA sin una validación crítica, completa y personal.

La norma impide igualmente el tratamiento mediante IA de datos personales especialmente protegidos o de información sujeta a deberes reforzados de confidencialidad, salvo autorización normativa expresa. Se prohíbe el perfilado, la predicción de comportamientos, la evaluación de riesgos o la clasificación de sujetos fuera de los supuestos expresamente autorizados por la normativa, así como la incorporación de datos judiciales a sistemas de IA no facilitados por la Administración o el CGPJ.

Sistemas de IA no permitidos

Queda prohibido el uso de sistemas de inteligencia artificial, incluidas herramientas de IA generativa, que no hayan sido facilitados por las Administraciones competentes en materia de Justicia o por el CGPJ.

No obstante, estos sistemas podrán utilizarse para finalidades de preparación o estudio, como la elaboración de resúmenes, traducciones o análisis de fuentes jurídicas, doctrinales o técnicas, siempre que la información utilizada proceda única y exclusivamente de fuentes abiertas. En ningún caso podrán incorporarse datos judiciales a estos sistemas.

Protección de datos personales

La instrucción dedica un apartado específico a la protección de datos personales. El uso de sistemas de IA deberá respetar plenamente la normativa vigente, garantizando los principios de licitud, lealtad, transparencia, minimización de datos, limitación de la finalidad, exactitud, integridad y confidencialidad.

Los datos personales a los que jueces y magistrados accedan en el ejercicio de la actividad jurisdiccional no podrán utilizarse en sistemas de IA que no hayan sido facilitados por la Administración o por el CGPJ. El tratamiento de datos personales mediante IA solo podrá llevarse a cabo cuando resulte estrictamente necesario para la finalidad de apoyo o asistencia perseguida y sea proporcional, quedando prohibido el tratamiento masivo o indiscriminado de datos judiciales.

Los sistemas utilizados deberán incorporar medidas técnicas y organizativas adecuadas para garantizar la seguridad de los datos, prevenir accesos no autorizados, asegurar la trazabilidad de las operaciones y evitar la reutilización de la información con fines distintos a los autorizados.

Incumplimientos, supervisión y formación

El incumplimiento de los criterios, pautas de uso y principios establecidos en la instrucción podrá dar lugar a las responsabilidades correspondientes, conforme a lo previsto en la Ley Orgánica del Poder Judicial, sin perjuicio de la adopción de medidas preventivas o correctoras en el ámbito organizativo o de gobierno del Poder Judicial.

El CGPJ ejercerá las funciones de supervisión y control del uso de los sistemas de IA en todo lo que afecte al tratamiento de datos personales con fines jurisdiccionales. Además, el Consejo ofrecerá a jueces y magistrados actividades formativas y de capacitación específicas sobre el uso de la inteligencia artificial en la Administración de Justicia.

Alfredo Collosa
Comparte esto: