La Ley de Inteligencia Artificial de la Unión Europea (conocida como AI Act) es el primer marco jurídico integral a nivel mundial que regula la inteligencia artificial. Entró en vigor el 1 de agosto de 2024, y sus principales disposiciones se aplicarán hasta agosto de 2027.
Este reglamento es decisivo: establece obligaciones legales a desarrolladores y empresas; protege derechos fundamentales, como la privacidad y la no discriminación; y apunta a consolidar la soberanía europea en el entorno digital. Afecta a organizaciones dentro y fuera de la UE, siempre que sus sistemas AI tengan impacto en territorio europeo.
¿A quién beneficia?
Ciudadanos: más transparencia y protección contra usos indebidos de la IA.
Empresas: claridad regulatoria, aunque incrementa la carga de cumplimiento.
Autoridades: nuevas atribuciones de supervisión y vigilancia.}
Video Recomendado: El Ai Act. Regulando la Nueva Era de la Inteligencia Artificial
1. Contexto histórico y evolución
Hitos clave
21 de abril de 2021: la Comisión Europea presentó la propuesta.
2022–2023: múltiples etapas legislativas (enmiendas del Parlamento, postura del Consejo, negociaciones trilaterales).
13 de marzo de 2024: aprobada por el Parlamento Europeo por 523 votos a favor.
21 de mayo de 2024: adoptada formalmente por el Consejo .
12 de julio de 2024: publicada en el Diario Oficial; 1 de agosto de 2024 entró en vigor.
Despliegue gradual entre 2025 y 2027, según nivel de riesgo del sistema AI.
Por qué surge el AI Act
Para equilibrar innovación y seguridad, evitando riesgos excesivos sin frenar la competencia.
Inspirado por el éxito del RGPD, que estandarizó globalmente las prácticas de protección de datos.
Motivado por la rápida autonomía de modelos generativos como ChatGPT, DALL·E, etc.
2. Definición y ¿a quién aplica
¿Qué se considera un ‘sistema de IA’?
Según el artículo 3(1): es “un sistema basado en máquinas, diseñado para operar con distintos niveles de autonomía, que puede adaptarse y que genera predicciones, contenido o decisiones que influyen en entornos físicos o virtuales”.
¿A quién aplica?
Proveedores: colocan en el mercado o ponen en servicio sistemas de IA o modelos de propósito general en la UE.
Desplegadores: organizaciones que utilizan IA en su actividad profesional, dentro del territorio europeo.
Importadores y distribuidores que introducen IA en el mercado de la UE.
Ámbito extraterritorial: incluso si la empresa está fuera de la UE, sí debe cumplir si sus IA impactan a usuarios europeos .
Exenciones tipificadas
IA de uso militar o de seguridad nacional.
IA para investigación científica sin intención comercial.
IA open source, a menos que sea de alto riesgo o esté prohibida.
3. Clasificación de riesgo: núcleo del AI Act
El reglamento establece un modelo de regulación por niveles según el riesgo:
Riesgo inaceptable (prohibido)
Art. 5 incluye prácticas como:
Manipulación subliminal o comportamental.
Vigilancia biométrica en tiempo real en espacios públicos.
Sistemas de “social scoring”. Excepciones limitadas: uso policial justificado frente a amenazas terroristas reales.
Riesgo alto (high-risk)
Se aplica a IA en ámbitos sensibles:
Seguridad, salud, educación, empleo, acceso a servicios, justicia, etc.
Generative AI de gran impacto, modelos de propósito general por encima de cierta potencia.
Obligaciones:
Conformidad técnica mediante evaluación, validación y pruebas (Art. 10).
Gestión de riesgos, transparencia, control humano y calidad.
Auditorías internas y externas antes y durante su ciclo de vida.
Sanciones: hasta €35 M o 7 % facturación anual (riesgo inaceptable); hasta €15 M o 3 % (otras infracciones) .
Riesgo limitado
Chatbots o deepfakes: obligación de transparencia (informar que es IA). Ej.: “Chatbot operado por IA” .
Riesgo mínimo
Filtros de spam, juegos: no regulados. Se sugiere código voluntario de conducta .
4. Análisis experto
4.1 Impacto en la innovación y la competitividad
Positivo: da certidumbre a startups y reduce fragmentación entre países miembros.
Críticas:
Posible freno a la agilidad de innovación, especialmente para pequeñas empresas.
Autoregulación insuficiente, según ONG como La Quadrature du Net.
Caída relativa en capacidad de innovación: solo 3 modelos AI europeos en el top mundial (contra 40 en EE.UU. en 2024) .
4.2 Efecto jurisdiccional global
Empresas de EE.UU., China y Reino Unido adaptarán sus modelos globalmente si quieren operar en Europa .
4.3 Preparación y escenarios
Industria: adaptación en RR.HH., finanzas, salud, legal, marketing.
Empresas: deben incorporar compliance, formación, auditorías y revisiones.
Instituciones: nuevos órganos para supervisión (AI Office, European AI Board, paneles de expertos).
5. Impacto sectorial por industria
Industria
Aplicación AI
Riesgo
Obligaciones principales
Salud
Diagnóstico asistido por IA
Alto
Validación clínica, auditorías, control de datos, conformidad técnica.
Educación
Evaluación, tutoría automatizada
Alto
Transparencia, supervisión humana, detección de sesgos.
Marketing
Publicidad personalizada, recomendación
Limitado
Etiquetado de contenido y transparencia en generación de perfiles.
Finanzas
Créditos, análisis de solvencia
Alto
Evaluación técnica, DRA, explicabilidad de decisiones.
Legal
Asistencia jurídica automatizada
Alto
Evaluaciones de riesgo, control humano, derecho a impugnación.
Recursos Humanos
Selección, videoentrevistas
Alto
Auditorías de sesgo, documentación del proceso y explicación de criterios de decisión.
6. Ética y consideraciones legales
6.1 Protección de derechos fundamentales
El AI Act busca prevenir:
Discriminación algorítmica.
Violación de la privacidad.
Manipulación psicológica.
Se potencia el derecho a explicabilidad para personas afectadas.
6.2 Fiscalización y sanciones
Las multas son disuasorias:
Prohibido: hasta €35 M o 7 % de facturación global.
Autoridades nacionales para vigilancia del mercado.
Se prevé el modelo de business sandboxes para pilotos legales, operativos desde 2 de agosto de 2026 .
7. Open source y modelos de propósito general
Modelos open source están menos regulados, salvo si es de alto potencial.
Los GPT y similares (Generative Pre-trained Transformers) se definen como modelos de propósito general, con normas de transparencia obligatoria.
Las grandes infraestructuras europeas (gigafactorías AI) fortalecen capacidades, pero podrían relajar regulaciones bajo presión económica.
8. Comparativa internacional: UE vs. EE.UU.
UE
Ley horizontal y exhaustiva.
Sanciones duras y aplicables extraterritorialmente.
Regulación basada en niveles de riesgo.
EE.UU.
Fragmentado por estados (Ej.: Utah, Illinois, Colorado).
Enfoque desde FTC, con normativas que varían según sector.
Menos énfasis en prohibiciones universales, más en transparencia y auditorías.
👉 La complejidad global exige que grandes empresas adopten estándares que satisfagan tanto el AI Act como regulaciones estadounidenses y de otros países.
9. Cronograma de implementación
1 agosto 2024: en vigor para reglas generales.
2 febrero 2025: aplicación de capítulos I y II.
2 agosto 2025: requisitos de gobernanza, GPAI, penalizaciones.
2 agosto 2026: mayor parte de obligaciones.
2 agosto 2027: obligaciones sobre sistemas de alto riesgo.
Editora nacida y formada en Córdoba, Argentina. Experta en generar contenido relevante para emprendedores y pymes del sector tecnológico local. Fanática del mate mientras redacta guías sobre WordPress y automatización.