La regulación de la inteligencia artificial (IA) se articula cada vez más a través de legislaciones basadas en un enfoque de riesgo, que pondera el potencial de daño a derechos fundamentales y la sociedad. A continuación, se comparan los marcos normativos de la Unión Europea, Estados Unidos y Brasil frente al proyecto de ley chileno.
Unión Europea: El AI Act
La Unión Europea ha adoptado el AI Act, primera regulación integral que clasifica los sistemas de IA en cuatro niveles de riesgo:
- Riesgo Inaceptable: Sistemas prohibidos (p. ej., scoring social, manipulación de emociones, reconocimiento biométrico en espacios públicos) bajo pena de sanción.
- Alto Riesgo: Aplicaciones que afectan derechos y seguridad (infraestructura crítica, salud, justicia, migración, empleo), sujetas a requisitos de registro, evaluación de riesgo, prueba de datasets, documentación técnica y supervisión humana.
- Riesgo Limitado: Modelos generativos o chatbots, con obligaciones de transparencia (etiquetado de IA y publicación de datos de entrenamiento).
- Riesgo Mínimo: Spam filters y videojuegos, exentos de obligaciones pero con códigos de conducta voluntarios.
Este enfoque prioriza la proporcionalidad de las medidas sobre la IA según su potencial de impacto y otorga derechos de reclamación ante autoridades nacionales de supervisión.
Estados Unidos: Orden Ejecutiva y Plan de Acción
EE. UU. carece de una ley federal unificada, optando por órdenes ejecutivas y planes de acción presidencial:
- El “Removing Barriers to American Leadership in Artificial Intelligence” (23 ene 2025) fomenta la innovación, reduce regulaciones y ordena un plan de acción en 180 días para mantener el liderazgo global.
- Se revocaron directivas restrictivas previas, estableciendo prioridades de “ideological neutrality” y “human flourishing”.
- El AI Training Act y la National AI Initiative Act financian investigación y formación de la fuerza laboral.
- Hay más de 100 leyes estatales en debate, con iniciativas locales de transparencia algorítmica y gobernanza de sesgos.
La estrategia estadounidense prioriza la competitividad y la seguridad nacional, con un rol limitado de supervisión federal directa sobre sistemas de riesgo.
Brasil: Proyecto de Ley 2.338/2023
Brasil aprobó en el Senado el PL 2.338/2023 (dic 2024), que establece un marco de IA centrado en:
- Pautas basadas en riesgos, incluyendo categorías prohibidas (sistemas de ataque autónomo y predicción de delitos sin control humano).
- Responsabilidad de desarrolladores y obligación de consentimiento de titulares de derechos de autor para obras usadas en entrenamiento.
- Protección de datos y derechos de creadores, con algoritmos que deben proveer mecanismos de reclamo y remuneración.
- Ética y no discriminación, aunque con críticas por falta de sanciones claras ante sesgos e insuficiente fuerza normativa en principios de neutralidad.
El texto prioriza la protección de derechos de autor y la responsabilidad civil, aun cuando requiere afinar sus sanciones y mecanismos de ejecución.
Chile: Proyecto de Ley de IA (Boletín 16821-19)
El anteproyecto chileno, inspirado en el modelo europeo, fija ocho principios rectores y un enfoque basado en riesgos:
- Riesgo Inaceptable: Prohibición de sistemas que manipulen emociones, realicen deepfakes sin consentimiento o scoring social.
- Alto Riesgo: IA en servicios críticos (sanidad, justicia, migración y empleo) sujeta a registro, evaluación continua, auditorías, transparencia y supervisión humana.
- Riesgo Limitado y Mínimo: Modelos generativos con requisitos de etiquetado y reportes de incidentes, y aplicaciones de bajo impacto (spam filters) sin obligaciones regulatorias.
- Implementación de un sistema de fiscalización por la Agencia de Protección de Datos Personales y sanciones proporcionales.
Comparación Clave
Aspecto | UE AI Act | EE. UU. Orden Ejecutiva | Brasil PL 2.338/2023 | Chile Boletín 16821-19 |
---|---|---|---|---|
Enfoque | Riesgo, adaptado a sectores | Competitividad, innovación | Derechos de autor, riesgo | Riesgo, derechos humanos |
Prohibiciones | Scoring social, biométrico | Pocas prohibiciones formales | IA militar autónoma, predicción | Manipulación, deepfakes |
Alto riesgo | Salud, justicia, empleo | No definido explícitamente | Implicaciones civiles y penales | Justicia, migración, empleo |
Supervisión | Autoridades nacionales | Plan de acción presidencial | Senado/Cámara, agencias autoras | Agencia de Protección de Datos |
Transparencia | Etiquetado obligatorio | Directivas generales | Mecanismos de reclamo | Reportes y auditorías |
Sanciones | Multas proporcionales | Ninguna federal unificada | Pendientes de Cámara de Diput. | Sanciones según riesgo |
La regulación chilena se alinea estrechamente con el AI Act europeo, incorporando un esquema de clasificación de riesgos y supervisión regulatoria especializada, pero debe avanzar en definiciones precisas de sanciones y en la articulación de órganos de control para efectividad práctica.