Regulación de la Inteligencia Artificial en el Derecho Procesal Chileno

Chile se posiciona como pionero en Latinoamérica en la regulación de la inteligencia artificial, liderando iniciativas legislativas que buscan equilibrar la innovación tecnológica con la protección de derechos fundamentales en el sistema judicial. El principal instrumento es el Proyecto de Ley que regula los Sistemas de Inteligencia Artificial (Boletín Nº 16.821-19), ingresado al Congreso Nacional el 7 de mayo de 2024 por el Gobierno, que actualmente se encuentra en su segundo trámite constitucional ante el Senado, tras ser despachado por la Cámara de Diputados el 12 de octubre de 2025.​

Objetivos y Principios Rectores

El proyecto tiene como objetivo central promover la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial al servicio de las personas, respetando los principios democráticos y el Estado de Derecho. Los objetivos específicos incluyen asegurar que estas tecnologías respeten los derechos fundamentales, garantizando dignidad, libertad e igualdad; fomentar la innovación y entregar certezas legales a quienes desarrollan y usan IA; y proteger a la ciudadanía frente a riesgos derivados de automatización sin supervisión adecuada.​

El marco reconoce once principios aplicables a los sistemas de IA:​

Intervención y supervisión humana, solidez y seguridad técnica, privacidad y gobernanza de datos, transparencia e identificación, diversidad y equidad social, bienestar social y medioambiental, rendición de cuentas y responsabilidad, protección de los derechos de los consumidores, equidad de género, protección de los derechos de autor y explicabilidad.​

Clasificación de Sistemas de IA según Nivel de Riesgo

El proyecto adopta un enfoque basado en riesgos, clasificando los sistemas en cuatro categorías:​

Sistemas de riesgo inaceptable incluyen aquellos incompatibles con la garantía de derechos fundamentales, cuya introducción en el mercado o puesta en servicio está prohibida. Entre los usos prohibidos se encuentran la manipulación subliminalidentificación biométrica remota en espacios públicos, extracción masiva de imágenes faciales y evaluación emocional en contextos determinados.​

Sistemas de alto riesgo comprenden aquellos autónomos o componentes de seguridad de productos cuya utilización puede transgredir derechos fundamentales si fallan o se utilizan impropiamente. Estos sistemas requieren obligaciones significativas, incluyendo la implementación de sistemas de monitoreo continuo durante su ciclo de vida útil.​

Sistemas de riesgo limitado presentan riesgos no significativos de manipulación, engaño o error en su interacción con personas naturales, siendo permitido su comercio con obligaciones de transparencia.

Sistemas sin riesgo evidente no entran en las categorías anteriores, teniendo aplicación limitada de obligaciones.​

Sujetos Obligados y Ámbito de Aplicación

La regulación se aplica a proveedores que introduzcan sistemas de IA en el mercado, implementadores que los utilicen en operaciones dentro de Chile, proveedores extranjeros cuya información se utilizará en el país, e importadores y distribuidores domiciliados en Chile.​

Obligaciones de Operadores de Sistemas de IA

Para sistemas de alto riesgo, los operadores deben:​

  • Implementar sistemas de gestión de riesgos
  • Establecer monitoreo continuo del funcionamiento e impacto durante la vida útil del sistema
  • Notificar incidentes graves en un plazo de 72 horas a la Agencia de Protección de Datos Personales
  • Garantizar transparencia sobre los datos utilizados en el entrenamiento, respetando derechos de autor cuando corresponda

Para sistemas de riesgo limitado, la principal obligación es informar de manera clara e inteligible a las personas naturales expuestas que están interactuando con tecnología de IA.​

Aplicaciones en Procedimientos Judiciales

El Poder Judicial chileno está en una etapa exploratoria de incorporación de IA, aunque ya existen iniciativas concretas:​

Portal Unificado de Sentencias: El Poder Judicial estrenó un nuevo buscador de jurisprudencia con IA que permite acceder a más de 1.5 millones de sentencias, utilizando buscadores semánticos que permiten consultas intuitivas y personalizadas. El sistema emplea modelos de IA abiertos gestionados completamente por el Poder Judicial, permitiendo identificar patrones, tendencias y líneas jurisprudenciales sin necesidad de intermediarios tecnológicos externos.​​

Procesamiento de documentos y transcripción: En dos tribunales del país y en la Tercera Sala de la Corte Suprema, se desarrollan proyectos piloto en procesamiento de documentos, análisis y resúmenes, además de transcripción automática de audiencias desde archivos MP3 con eficiencia significativa.​

Juicios ejecutivos: Actualmente, casi el 70% de las causas civiles ingresadas corresponden a juicios ejecutivos, mayormente cobros de pagaré iniciados por entidades bancarias. Se ha planteado la viabilidad de implementar una tramitación automatizada de procedimientos ejecutivos simples o aquellos donde no se opongan excepciones formales, lo que permitiría descongestionar tribunales y liberar recursos humanos para casos que requieren mayor reflexión y análisis judicial.​

Tribunal Especial en Línea: Se ha propuesto la creación de un tribunal especial que emplee IA para mejorar el acceso a la justicia mediante procedimientos totalmente virtualizados.​

Marco Ético Judicial

El Código Ético Iberoamericano para el Uso de la Inteligencia Artificial en la Función Judicial (aprobado por la Cumbre Judicial Iberoamericana e incorporado en el nuevo Código de Ética Judicial chileno de 2025) establece que la decisión judicial es siempre humana. Ningún sistema automatizado puede condicionar la valoración de la prueba ni la resolución del litigio. El Código recomienda que cualquier uso de IA en decisiones judiciales vaya acompañado de mecanismos rigurosos de escrutinio, validación independiente y supervisión ética constante.​

Las orientaciones incluyen verificar de manera independiente cualquier referencia generada por herramientas de IA, mantener control sobre datos insertados en plataformas externas y resguardar confidencialidad en audiencias telemáticas o reconstrucciones virtuales.​

Desafíos Críticos en Derecho Procesal

Transparencia y Explicabilidad: Los algoritmos empleados en decisiones judiciales deben ser completamente explicables y auditables, permitiendo la trazabilidad de cada decisión. Se reconoce la necesidad de “algoritmos de caja blanca” que permitan su verificación y revisión por operadores humanos competentes. La opacidad de los algoritmos, particularmente en sistemas de aprendizaje profundo, presenta un obstáculo significativo para la implementación confiable.​

Sesgos Algorítmicos y Discriminación: Un riesgo ineludible es que los algoritmos reproduzcan y amplifiquen sesgos humanos en decisiones automatizadas. Esto es especialmente grave en procedimientos que afectan derechos fundamentales, pudiendo discriminar por género, etnia, edad u orientación sexual si los datos de entrenamiento reflejan desigualdades estructurales. La jurisprudencia y los datos históricos del sistema judicial pueden perpetuar patrones discriminatorios si se utilizan sin análisis crítico para entrenar sistemas de IA.​

Responsabilidad Civil: Existe un desafío legal abierto en la atribución de responsabilidad civil cuando sistemas de IA causan daño en procedimientos. La dificultad radica en determinar cuál agente es responsable: el proveedor, el implementador, el juez que confió en la recomendación, o la combinación de factores. El proyecto de ley rechazó inicialmente un artículo sobre responsabilidad civil específica en casos de daños por IA, requiriendo futuras reformas para clarificar este aspecto.​

Causalidad Difusa: En sistemas complejos con múltiples componentes de IA, es difícil identificar cuál elemento específico fue responsable del error o daño. Esto complica tanto la depuración de responsabilidades como la adopción responsable de estas tecnologías en procedimientos críticos.​

Gobernanza y Fiscalización

La Agencia de Protección de Datos Personales será responsable de fiscalizar y sancionar el cumplimiento de la ley, instruyendo procedimientos administrativos sancionadores.​

Se contempla crear un Consejo Asesor Técnico de Inteligencia Artificial que actuará como instancia consultiva permanente asesorando al Ministerio de Ciencia, proponiendo políticas de fomento de IA, realizando recomendaciones éticas y presentando informes anuales al Congreso.​

Se habilitan espacios controlados de prueba (sandboxes) para organismos de la Administración del Estado, que quedarían exentos de multas pero no de responsabilidad civil por daños generados durante la experimentación regulada.​

Régimen Sancionatorio

El proyecto establece tres niveles de infracciones con criterios de proporcionalidad considerando tamaño de empresa, número de afectados, acciones de mitigación y grado de cooperación con autoridades:​

  • Infracciones gravísimas: Uso o puesta en servicio de sistemas de riesgo inaceptable, sancionables hasta 20.000 UTM (aproximadamente 1,4 millones USD)
  • Infracciones graves: Incumplimiento de obligaciones para sistemas de alto riesgo
  • Infracciones leves: Falta de transparencia en sistemas de riesgo limitado, sancionables hasta 5.000 UTM

Estado Actual de la Tramitación Legislativa

El proyecto transitó el primer trámite en la Cámara de Diputados con importantes modificaciones tras revisar cerca de cien indicaciones. La iniciativa fue aprobada en general el 4 de agosto de 2025 y fue despachada al Senado el 12 de octubre de 2025 tras aprobación del segundo informe de comisión.​

Sin embargo, varios aspectos relevantes no lograron aprobación en la Cámara, incluyendo la creación del Consejo Asesor Técnico, la denuncia de incidentes por cualquier persona, la fiscalización específica por la Agencia de Protección de Datos, los espacios regulados de prueba, el procedimiento administrativo sancionador, el procedimiento de reclamación judicial, y la formulación de regulaciones sobre qué sistemas constituyen alto o limitado riesgo. Estos vacíos requerirán resolución en el segundo trámite senatorial.​

Perspectivas Futuras

La regulación chilena se alinea con estándares internacionales, particularmente con la Ley de IA de la Unión Europea (adoptada como principal referente), pero adaptándose al contexto latinoamericano. El objetivo es que Chile se consolide como líder regional en gobernanza responsable de IA, promoviendo tanto la innovación como la protección de derechos en el sistema de justicia.​

Para el derecho procesal específicamente, los desafíos inmediatos incluyen diseñar protocolos que garanticen que los sistemas de IA sean herramientas de apoyo supervisadas más que sustitutos de decisiones humanas, implementar mecanismos robustos de auditoría y transparencia algorítmica, y desarrollar regulaciones específicas sobre responsabilidad civil que reflejen la complejidad técnica de estos sistemas.​