La revolución tecnológica que impulsa la inteligencia artificial (IA) ha llegado a numerosos ámbitos de la vida cotidiana y productiva en Chile: desde la automatización de procesos industriales hasta la asistencia médica, pasando por la educación, la gestión pública y los servicios financieros. Este auge ha generado un creciente consenso sobre la necesidad de contar con un marco regulatorio claro, capaz de mitigar los riesgos asociados —como sesgos algorítmicos, vulneración de derechos fundamentales, amenazas a la privacidad o impactos laborales inesperados— sin sofocar la innovación y el desarrollo tecnológico. Ante este panorama, el Estado chileno presentó en mayo de 2024 el Boletín 16821-19, un proyecto de ley de carácter pionero en la región, inspirado en buena medida en el Reglamento Europeo de IA, pero adaptado a la realidad local. Tras más de un año de intenso debate en el Congreso, la regulación alcanzó en agosto de 2025 un hito relevante: la aprobación en general de su idea de legislar en la Cámara de Diputadas y Diputados.
A continuación, se detalla el contenido esencial del proyecto, la forma en que ha avanzado su tramitación parlamentaria, los principales desafíos que enfrenta y las perspectivas a futuro para su promulgación y aplicación efectiva.
1. Origen y tramitación del proyecto de ley
El proyecto de ley de IA se ingresa al Congreso el 7 de mayo de 2024 como resultado de un acuerdo entre el Ejecutivo y varios parlamentarios. Su génesis responde a recomendaciones de organismos internacionales —como la OCDE y la UNESCO— y a múltiples foros académicos y consultas ciudadanas organizadas por el Ministerio de Ciencia, Innovación, Conocimiento y Tecnología. La iniciativa buscó unificar distintos borradores propuestos en instancias previas, de modo de evitar la fragmentación normativa y garantizar un alcance coherente.
Durante la primera etapa, la Comisión de Futuro, Ciencia, Tecnología, Conocimiento e Innovación de la Cámara de Diputadas y Diputados analizó en detalle el articulado. En esa fase se recabaron opiniones de expertos en derecho digital, responsables de startups de IA, representantes sindicales y asociaciones de consumidores. El 4 de agosto de 2025, el pleno de la Cámara aprobó en general la idea de legislar, convirtiendo a Chile en el primer país de la región en dar luz verde a un proyecto de ley específico para sistemas de IA. Esa votación aprobó 83 artículos de 84, quedando el artículo 28 —que establecía un régimen de responsabilidad civil por daños causados por sistemas automatizados— para discusión en particular. Tras la votación, el texto volvió a la Comisión para revisar dicha disposición y alinear definiciones sobre imputabilidad y estándares de diligencia.
En paralelo, el Senado recibió la iniciativa en condición de urgente, con prioridad “Simple Discusión”, lo que fortalece la posibilidad de contar con una ley promulgada antes de febrero de 2026. El Ejecutivo, por su parte, no ha descartado presentar indicaciones para reforzar medidas de fiscalización y asignar más atribuciones a la Agencia de Protección de Datos Personales.
2. Estructura y contenidos clave del proyecto
El proyecto de ley de IA consta de siete capítulos, más disposiciones transitorias y finales. Su orientación principal es un enfoque basado en riesgos, que clasifica los sistemas de IA según su potencial de afectación a la salud, la seguridad o los derechos fundamentales.
2.1 Definiciones y alcance
El texto define “sistema de IA” como aquel que utiliza técnicas de aprendizaje automático, reglas heurísticas, redes neuronales u otros algoritmos para procesar datos y generar predicciones, recomendaciones o decisiones automatizadas. Se excluyen de la ley los sistemas de IA de uso exclusivamente militar, que quedan sujetos a la normativa de defensa.
2.2 Clasificación de riesgos
Inspirado en la regulación europea, el proyecto establece cuatro niveles de riesgo:
- Riesgo inaceptable: Sistemas que manipulan comportamientos de manera oculta (técnicas subliminales) o que permiten reconocimiento biométrico masivo en espacios públicos sin consentimiento explícito. Estos quedan prohibidos de forma absoluta.
- Alto riesgo: Aplicaciones que pueden influir en derechos fundamentales, la integridad física o la salud de las personas. Se incluyen aquí los sistemas de selección de personal automatizado, diagnóstico médico asistido por IA y adjudicación de créditos financieros.
- Riesgo limitado: Herramientas con bajo potencial de daño, como asistentes virtuales de atención al ciudadano. Deben cumplir ciertas obligaciones de transparencia, informando a los usuarios que interactúan con una IA.
- Riesgo mínimo o nulo: Aplicaciones sin impacto significativo, por ejemplo, sistemas de recomendación de contenido audiovisual o personalización de publicidad de bajo poder persuasivo. No requieren obligaciones específicas.
2.3 Principios y salvaguardias
Para los sistemas de alto y medio riesgo, el proyecto impone una serie de obligaciones:
- Transparencia y explicabilidad: Los operadores deberán documentar las características del modelo, datos de entrenamiento y métricas de desempeño. Asimismo, quedan obligados a proporcionar explicaciones comprensibles del funcionamiento del sistema cuando una decisión automatizada afecte derechos o intereses legítimos de personas naturales.
- Supervisión humana: Debe existir un mecanismo de revisión y aprobación humana antes de ejecutar decisiones críticas. Quedan prohibidas las decisiones totalmente autónomas en contextos de alto riesgo.
- Protección de datos y privacidad: Se alinean con el Reglamento General de Protección de Datos de la UE, exigiendo evaluaciones de impacto, consentimiento informado y medidas de seguridad para mitigar filtraciones.
- No discriminación: Se prohíbe explícitamente la generación de sesgos basados en raza, género, orientación sexual, religión o situación socioeconómica. Las auditorías de equidad serán obligatorias antes del despliegue comercial.
- Registro nacional de sistemas de alto riesgo: Los desarrolladores e implementadores deben inscribir sus soluciones en un registro administrado por la Agencia de Protección de Datos Personales, especificando finalidad, responsables y ámbito de uso.
2.4 Gobernanza institucional
El proyecto crea una Comisión Nacional de Inteligencia Artificial (CNIA), dependiente del Ministerio de Ciencia, cuya misión es:
- Definir estándares técnicos y criterios de evaluación de riesgos específicos para industrias clave.
- Coordinar con la Agencia de Protección de Datos Personales y la Agencia Nacional de Ciberseguridad para supervisar el cumplimiento normativo.
- Promover la investigación y el desarrollo de IA responsable.
- Facilitar espacios de diálogo público–privado para actualizar la regulación según avances tecnológicos.
La Agencia de Protección de Datos Personales es reconfirmada como autoridad fiscalizadora, con facultades para imponer sanciones administrativas, que pueden alcanzar hasta 20.000 UTM en casos graves. Se prevé la posibilidad de colaboración técnica con la Agencia de Ciberseguridad cuando los sistemas de IA generen vulnerabilidades en infraestructura crítica.
2.5 Fomento de la innovación: “Regulatory sandboxes”
Para no crear barreras excesivas, se incorpora un régimen especial de “sandbox” regulatorio: entornos controlados donde startups, pymes e instituciones académicas pueden probar soluciones de IA de alto riesgo bajo supervisión oficial, con exenciones temporales de sanciones y acompañamiento técnico. Este mecanismo busca equilibrar seguridad jurídica y agilidad de desarrollo, aprendiendo de experiencias exitosas en Reino Unido y Singapur.
2.6 Responsabilidad y reparación de daños
El artículo 28, actualmente en debate particular, establecía un régimen de responsabilidad civil objetiva para daños causados por sistemas automatizados. Tras la votación en general, ese artículo fue rechazado y devuelto a Comisión, donde se discute:
- Definir estándares de diligencia debida para desarrolladores, operadores y usuarios.
- Determinar si la imputabilidad recae únicamente en personas jurídicas o también en individuos.
- Crear un mecanismo ágil de reclamaciones, con tribunales expertos o unidades especializadas.
La ausencia de una regulación clara de responsabilidad genera incertidumbre legal y podría frenar la adopción de tecnologías en sectores donde los riesgos de litigio son elevados.
3. Desafíos y críticas al enfoque actual
A pesar de los avances, el proyecto enfrenta cuestionamientos en varios frentes:
3.1 Adaptación local versus copia de modelos extranjeros
Expertos en políticas tecnológicas advierten que replicar las categorías europeas sin ajustar capacidad técnica ni estructuras institucionales puede generar un desajuste. La disponibilidad de datos de calidad, infraestructura de evaluación y recursos humanos calificados en Chile es menor que en Europa, por lo que las exigencias de auditorías y documentación podrían convertirse en cargas excesivas para el ecosistema local.
3.2 Potestad y recursos de fiscalización
La Agencia de Protección de Datos Personales, creada en 2021, aún no cuenta con un cuerpo técnico robusto para auditar algoritmos y supervisar proyectos de IA. Los críticos señalan la necesidad de dotarla con mayor presupuesto, autonomía y equipos multidisciplinarios (ingenieros, estadísticos y abogados especializados).
3.3 Responsabilidad civil y garantías de reparación
La falta de un régimen claro de responsabilidad limita la confianza de usuarios y de los propios operadores. Además, la resolución del debate sobre el artículo 28 definirá si Chile opta por un sistema de responsabilidad objetiva —más rápido para los afectados, pero más oneroso para la industria— o por un modelo mixto que combine culpa y estándares de cuidado. Este punto será crucial para dar certidumbre jurídica y fomentar seguros de responsabilidad.
3.4 Articulación con otras regulaciones
La IA impacta sectores regulados por normas sectoriales (salud, finanzas, transporte). Es esencial coordinar el nuevo marco con la legislación vigente —por ejemplo, la Superintendencia de Salud, la Comisión para el Mercado Financiero y la Dirección General de Aeronáutica Civil— para evitar solapamientos o vacíos normativos.
3.5 Inclusión y participación ciudadana
Aunque el proyecto incluyó consultas iniciales, organizaciones de la sociedad civil piden mecanismos permanentes de participación, como observatorios ciudadanos de IA y comités de ética independientes, para asegurar que las perspectivas de grupos vulnerables y consumidores estén representadas.
4. Perspectivas y próximos pasos
La tramitación continúa en la Comisión de Futuro, Ciencia, Tecnología, Conocimiento e Innovación, donde los diputados revisan los artículos en particular. Se espera que para octubre de 2025 se definan las indicaciones sobre responsabilidad civil, registro de sistemas y atribuciones de la CNIA.
Posteriormente, el texto volverá al Senado para su discusión en general y particular, con miras a una aprobación definitiva antes de fines de 2025 y promulgación en primer trimestre de 2026. Una posterior etapa de reglamentación, liderada por el Ministerio de Ciencia y la Agencia de Protección de Datos, definirá estándares técnicos, protocolos de evaluación de riesgos y criterios de auditoría.
En el plano internacional, Chile busca posicionarse como referente regional en regulación de IA, colaborando con la Alianza del Pacífico y el Foro de Cooperación Económica Asia-Pacífico (APEC) para armonizar enfoques y fomentar un mercado común de innovación responsable.
El proyecto de ley de IA en Chile representa un avance histórico: reconoce el enorme potencial de la inteligencia artificial para impulsar productividad, mejorar servicios públicos y generar conocimiento, al mismo tiempo que establece salvaguardias para proteger derechos, promover la transparencia y garantizar supervisión humana. El enfoque basado en riesgos y el modelo de “sandbox” ofrecen un equilibrio delicado entre innovación y seguridad. No obstante, para que la regulación sea efectiva será fundamental:
- Fortalecer la capacidad técnica de los órganos fiscalizadores, dotándolos de recursos y personal especializado.
- Definir con claridad la responsabilidad civil, ofreciendo certidumbre jurídica y mecanismos ágiles de reparación.
- Adaptar los estándares europeos a la realidad chilena, considerando la disponibilidad de infraestructura y competencias locales.
- Coordinar la ley de IA con regulaciones sectoriales, evitando solapamientos y vacíos.
- Garantizar la participación continua de la sociedad civil, incluyendo mecanismos de supervisión ética y consulta permanente.
Si estos desafíos se afrontan con decisión y colaboración público-privada, Chile podrá contar con un marco regulatorio robusto que impulse el desarrollo de la IA de manera responsable, inclusiva y competitiva, posicionándose como líder en la región y atrayendo inversión y talento a su ecosistema tecnológico.