La ética y la inteligencia artificial en los tribunales chilenos

La incorporación de la inteligencia artificial en el sistema judicial chileno representa uno de los desafíos más complejos y trascendentales que enfrenta la administración de justicia contemporánea. Chile se posiciona como pionero en América Latina en el desarrollo de marcos regulatorios específicos para la IA, mientras simultáneamente implementa proyectos piloto que demuestran tanto las oportunidades como los riesgos éticos inherentes a esta tecnología.

El Marco Regulatorio Emergente

La Política Nacional de IA y el Proyecto de Ley

Chile ha desarrollado una estructura normativa integral que incluye la Política Nacional de Inteligencia Artificial, actualizada en 2023, y el proyecto de ley que regula los sistemas de IA (Boletín 16821-19). Este proyecto, aprobado en general por la Cámara de Diputados en agosto de 2025, establece ocho principios rectores fundamentales: supervisión y control humano sobre sistemas automatizados, seguridad técnica y operativa, protección de datos personales y ciberseguridad, transparencia y trazabilidad, equidad de género, inclusión social y respeto medioambiental.

La legislación propuesta adopta un enfoque basado en riesgos similar al AI Act europeo, clasificando los sistemas de IA en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo limitado y sin riesgo evidente. Los sistemas de riesgo inaceptable, incluidos aquellos que generan deepfakes o manipulan emociones sin consentimiento informado, serían prohibidos completamente.

Principios Éticos Fundamentales

El marco ético chileno se sustenta en principios derivados de los estándares internacionales de la OCDE, que Chile endosa como miembro. Estos principios incluyen:

  • Centralidad del ser humano: La IA debe beneficiar a las personas y promover el bienestar social
  • Respeto al Estado de Derecho: Los sistemas deben respetar los derechos humanos y valores democráticos
  • Transparencia y rendición de cuentas: Debe existir divulgación responsable y comprensión de las decisiones basadas en IA
  • Robustez y seguridad: Funcionamiento seguro durante todo el ciclo de vida
  • Responsabilidad: Las organizaciones deben rendir cuentas por el funcionamiento apropiado de sus sistemas

Implementación Actual en el Sistema Judicial

Proyectos Piloto y Herramientas Operativas

El Poder Judicial chileno ha iniciado la implementación gradual de sistemas de IA a través de varios proyectos significativos. La Corte de Apelaciones de Temuco, en colaboración con la Universidad de La Frontera, desarrolló el “Proyecto de automatización certificado 66 del Código Orgánico de Tribunales”, que utiliza IA para generar certificaciones de manera automática, reduciendo el tiempo de procesamiento de media hora por causa a solo minutos.

El proyecto “Justa” representa un avance más ambicioso, utilizando algoritmos de IA para la transcripción automática de audiencias, generación de actas y análisis de escritos judiciales, resultando en una reducción drástica de los tiempos de tramitación de causas. Este sistema se ha implementado exitosamente en tribunales de familia, criminales y laborales específicos del país.

La Corte Suprema lanzó en julio de 2025 un nuevo Motor de Búsqueda de Jurisprudencia potenciado por IA, capaz de analizar más de 1.5 millones de sentencias. Esta herramienta demuestra el potencial de la IA para optimizar la labor judicial mediante el acceso eficiente a precedentes jurisprudenciales.

Innovaciones en Resolución de Disputas

El Centro de Arbitraje y Mediación de la Cámara de Comercio de Santiago (CAM Santiago) desarrolló la funcionalidad “Resolución en Línea”, diseñada para resolver disputas entre consumidores y empresas mediante negociación asistida por algoritmos y mediación en línea. Esta iniciativa, completamente desarrollada en Chile, permite que el sistema proponga soluciones automatizadas a reclamos de consumidores, con intervención humana cuando es necesario.

Desafíos Éticos Fundamentales

El Sesgo Algorítmico y la Discriminación

Uno de los desafíos más críticos identificados en la implementación de IA judicial es el sesgo algorítmico. La investigación académica revela que los algoritmos pueden perpetuar y amplificar discriminaciones históricas cuando se entrenan con datos que reflejan patrones de desigualdad sistemática. En el contexto laboral, estos sesgos pueden resultar en exclusión de minorías del acceso al empleo, evaluaciones de desempeño injustas, y decisiones discriminatorias en ascensos.

El problema se agrava por la opacidad de los algoritmos, que dificulta la responsabilización y transparencia en la toma de decisiones, obstaculizando la capacidad de los individuos para impugnar decisiones injustas. Esta opacidad puede afectar principios fundamentales como la imparcialidad, no discriminación y privacidad, generando preocupaciones sobre la vulneración de derechos fundamentales.

Transparencia Algorítmica y Debido Proceso

El Consejo para la Transparencia (CPLT) ha identificado la necesidad crítica de transparencia algorítmica en el sector público. Según estudios de 2021, existen 92 sistemas de decisiones automatizadas o semiautomatizadas en 42 instituciones públicas chilenas, pero persiste un déficit significativo en la información disponible sobre cómo operan estos sistemas.

Las recomendaciones del CPLT establecen que los órganos públicos deben publicar información sistematizada sobre sus sistemas de decisiones automatizadas, incluyendo sus lógicas operativas, datos utilizados y mecanismos de reclamación. Esta transparencia es fundamental para preservar el derecho al debido proceso cuando se utilizan sistemas de IA en procedimientos judiciales y administrativos.

La Preservación del Control Humano

Un principio ético central emergente es el derecho al control humano sobre las decisiones automatizadas. La legislación chilena de protección de datos personales (Ley 21.719) incorpora disposiciones inspiradas en el artículo 22 del GDPR europeo, estableciendo el derecho de las personas a oponerse y no ser objeto de decisiones basadas únicamente en el tratamiento automatizado de datos personales.

Esta “reserva de humanidad” implica que, aunque la IA puede asistir en la toma de decisiones judiciales, la decisión final debe mantener supervisión humana significativa. Los expertos subrayan que “la inteligencia artificial no puede sustituir al juez; debe asistirlo, pero nunca reemplazarlo”.

Casos Concretos y Precedentes

Experiencias Internacionales Relevantes

La experiencia internacional proporciona lecciones valiosas para Chile. En Colombia, el caso del juez que utilizó ChatGPT para fundamentar una sentencia generó debate sobre la transparencia en el uso de herramientas de IA. Aunque el magistrado fue transparente sobre su uso, el caso plantea interrogantes sobre cuántos jueces utilizan estas herramientas sin revelarlo.

En China, los “tribunales inteligentes” han operado desde 2017 con resultados mixtos, mientras que en Canadá, el sistema Modria ha resuelto exitosamente pequeñas reclamaciones civiles desde 2012. Estos precedentes demuestran tanto el potencial como los riesgos de la automatización judicial.

Incidentes Nacionales

En Chile, se ha documentado al menos un caso donde un abogado presentó jurisprudencia falsa generada por IA ante un tribunal, siendo detectado por la contraparte. Aunque el tribunal no aplicó sanciones disciplinarias, el incidente subraya la necesidad de formación rigurosa y respeto por las fuentes oficiales en el uso de IA legal.

Garantías Procesales y Salvaguardas

Principios de Supervisión Humana

La implementación ética de IA en tribunales chilenos requiere el establecimiento de salvaguardas robustas que aseguren el respeto a las garantías procesales fundamentales. Los algoritmos de IA deben seguir principios básicos como el in dubio pro reo, y los jueces deben mantener la capacidad de apartarse de las recomendaciones algorítmicas con justificación adecuada.

La supervisión humana constante es esencial para garantizar que las decisiones que afectan la libertad individual respeten el principio de legalidad y la transparencia del proceso, desarrollándose de manera individualizada bajo la potestad del juez.

Auditoría y Control de Calidad

Para mitigar los riesgos de sesgo algorítmico, es imperativo implementar auditorías regulares de algoritmos y evaluaciones de impacto en derechos humanos. Estas medidas deben incluir:

  • Verificación continua de la integridad y autenticidad de datos procesados
  • Protocolos de cadena de custodia digital para evidencias
  • Revisión por peritos especializados
  • Uso de herramientas tecnológicas seguras que preserven la autenticidad

Formación y Capacitación Judicial

La Academia Judicial de Chile ha incorporado seminarios sobre ética e inteligencia artificial en su programa de formación. Estos espacios de diálogo académico-judicial son fundamentales para preparar a magistrados y funcionarios judiciales ante los desafíos de la era digital.

Perspectivas Futuras y Recomendaciones

Hacia un Marco Integral

Para 2026, se proyecta que Chile enfrentará el primer caso significativo de negligencia profesional vinculada a IA en el sistema judicial, lo que establecerá precedentes importantes sobre responsabilidad civil y estándares de debida diligencia para operadores jurídicos que utilicen estas tecnologías.

La regulación debe evolucionar hacia un enfoque precautorio, transparente y con supervisión humana constante para garantizar la protección de derechos fundamentales. Esto requiere:

Desarrollo Normativo Especializado

  • Creación de protocolos específicos para el uso de IA en diferentes tipos de procedimientos judiciales
  • Establecimiento de estándares de admisibilidad para pruebas digitales generadas con IA
  • Definición clara de responsabilidades para desarrolladores, implementadores y usuarios de sistemas judiciales de IA

Colaboración Interdisciplinaria

La implementación exitosa de IA ética en tribunales chilenos demanda colaboración estrecha entre el sector legal, tecnológico y académico. Esta cooperación debe incluir:

  • Investigación continua sobre impactos éticos y sociales de la IA judicial
  • Desarrollo de métricas de evaluación para sistemas de IA en contextos judiciales
  • Formación especializada para operadores del sistema de justicia

Participación Ciudadana y Transparencia

El fortalecimiento de la confianza ciudadana en el uso de IA judicial requiere transparencia activa sobre la implementación de estos sistemas, incluyendo información accesible sobre su funcionamiento, limitaciones y mecanismos de accountability.

La ética y la inteligencia artificial en los tribunales chilenos representan un campo dinámico donde convergen innovación tecnológica, garantías constitucionales y valores democráticos fundamentales. El éxito de esta integración dependerá de la capacidad del sistema judicial chileno para mantener un equilibrio delicado entre eficiencia operativa y preservación de los principios de justicia, equidad y debido proceso que sustentan el Estado de Derecho.