- María López Fernández
- AI Act, inteligencia artificial en Europa, ley de IA europea, normativa tecnológica 2025, regulación de inteligencia artificial
- 170 Vistas
Introducción
El desarrollo de la inteligencia artificial (IA) ha crecido a un ritmo vertiginoso en los últimos años. Desde chatbots conversacionales hasta sistemas de reconocimiento facial, la IA está transformando industrias y ámbitos de la vida cotidiana. Pero con gran poder viene gran responsabilidad: ¿cómo asegurarnos de que estos sistemas respeten los derechos fundamentales, la seguridad y la ética?
Para responder a ese desafío, la European Union (UE) aprobó en 2024 el EU AI Act —el primer marco regulatorio integral sobre IA a escala continental— con la intención de regular el desarrollo, comercialización y uso de sistemas de IA. Esto no solo afecta a empresas y usuarios en Europa; dado su alcance extraterritorial, también tiene implicancias globales.
En este artículo explico qué es el AI Act, por qué es relevante, cómo clasifica los riesgos, qué obligaciones impone y cuáles serán sus efectos en distintos sectores, así como sus oportunidades y retos.
Contexto histórico
- Hasta antes del AI Act, la regulación de la IA era fragmentada: algunas leyes sobre datos, privacidad o productos, pero ninguna legislación unificada.
- En marzo de 2024, el Parlamento Europeo aprobó formalmente el reglamento.
- El 1 de agosto de 2024 fue su entrada en vigor; pero su aplicación es gradual, con distintos plazos según tipo de IA y riesgo.
- Desde entonces, la UE ha desplegado guías, iniciativas voluntarias y organismos de supervisión para facilitar su implementación.
¿Qué regula el AI Act? Principios y enfoque
El EU AI Act se basa en el principio de “enfoque basado en riesgos”: mientras más riesgo represente una IA para derechos, seguridad o bienestar, más estrictas son las obligaciones.
1. Clasificación de riesgos
El reglamento divide los sistemas de IA en categorías según su nivel de riesgo:
- Riesgo inaceptable: IA cuyo uso se considera una amenaza clara para derechos fundamentales, seguridad o dignidad —estas prácticas quedan prohibidas.
- Alto riesgo: IA aplicada en ámbitos sensibles —como salud, justicia, infraestructuras críticas, educación, finanzas— donde sus decisiones o funcionamiento pueden tener un impacto elevado.
- Riesgo limitado o bajo: IA de uso común con bajo impacto —como filtros de spam, asistentes simples, videojuegos— que tienen pocas obligaciones adicionales.
- Modelos de IA de propósito general (GPAI): modelos capaces de realizar múltiples tareas (p. ej. generación de texto, imágenes, decisiones, etc.). Aunque muchos no son automáticamente “alto riesgo”, por su naturaleza y potencial impacto deben cumplir reglas específicas.
2. Prohibiciones de prácticas
Algunas prácticas de IA consideradas “inaceptables” están directamente prohibidas —por ejemplo: sistemas de puntuación social implementados por gobiernos o entes públicos, uso de IA para manipular individuos vulnerables, vigilancia biométrica masiva en tiempo real, etc.

3. Obligaciones para IA de alto riesgo y GPAI
Para IA de alto riesgo, los proveedores deben:
- Realizar evaluaciones de conformidad antes de comercializar o poner en servicio el sistema. Puede requerirse evaluación por terceros (organismos notificados).
- Garantizar documentación técnica, registro, trazabilidad, auditorías, transparencia, planes de gestión de riesgos, medidas de mitigación, etc.
- Marcar el producto con el sello “CE” cuando aplique, como sello de conformidad.
Para modelos generalistas (GPAI), la regulación exige —o exigirá— transparencia, documentación sobre entrenamiento, manejo de derechos de autor y evaluaciones de seguridad y sesgos potenciales.
4. Alcance extraterritorial
El AI Act se aplica no solo a organizaciones radicadas en la UE, sino a cualquier proveedor, importador o distribuidor que ofrezca sistemas de IA en el mercado europeo, incluso si están fuera del bloque. Esto lo hace equivalente en espíritu al GDPR —extiende su alcance global.
Impacto real en empresas, desarrolladores y sociedad
La aprobación y entrada en vigor del AI Act tiene efectos visibles en varios frentes:
Beneficios y oportunidades
- Confianza y legitimidad: Establecer reglas claras ayuda a generar confianza en la IA —usuarios, reguladores y sociedad saben qué esperar.
- Armonización regulatoria: Un solo marco para toda la UE facilita la expansión para empresas que operan en varios países, reduciendo la fragmentación normativa nacional.
- Estímulo a innovación responsable: La ley busca incentivar una IA fiable, humana y ética, favoreciendo desarrollos que consideren seguridad, privacidad y derechos fundamentales.
- Ventaja competitiva: Las empresas que adapten sus procesos temprano pueden obtener ventajas en confianza, reputación y cumplimiento —un valor diferencial frente a quien no lo haga.
Además, sectores como salud, educación o finanzas —altamente regulados— ahora disponen de un marco jurídico claro para integrar IA de forma segura.
Retos, costos y preocupaciones
- Carga regulatoria: Las obligaciones de documentación, auditorías, evaluaciones de riesgo y seguimiento pueden representar un costo elevado, especialmente para pymes o startups.
- Velocidad vs normatividad: La IA evoluciona muy rápido; adaptarse a reglas rígidas puede ralentizar innovación. El reglamento debe equilibrar seguridad con agilidad.
- Complejidad en la implementación: No siempre es fácil determinar cuándo un sistema es “alto riesgo” o “GPAI”, especialmente si es modular o combina varios componentes.
- Tensión global: Empresas no europeas deben adaptarse si quieren acceder al mercado europeo —puede generar barreras, resistencias o deslocalización de desarrollos.
Sectores y ámbitos concretos de impacto
El AI Act influye, entre otros, en estos ámbitos:
- Salud: IA médica, diagnósticos, triage, historial clínico: requerirá evaluación estricta antes de uso.
- Justicia y seguridad: Sistemas de predicción, reconocimiento facial o decisiones automatizadas deben cumplir altos estándares o han sido prohibidos si representan riesgo inaceptable.
- Educación: Herramientas de calificación, evaluación o selección asistida por IA deben ser evaluadas según riesgo; favorece transparencia y equidad.
- Finanzas / banca / seguros: Decisiones automatizadas de crédito, scoring o perfilamiento deben ajustarse a requisitos de equidad, responsabilidad y documentación.
- Productos generales de IA / consumo: Chatbots, asistentes, herramientas de creación de contenido, etc., dependerán de obligaciones de transparencia —particularmente los modelos de propósito general.
Además, su alcance extraterritorial implica que empresas globales (incluso fuera de Europa) que quieran operar en Europa deberán adaptarse.
Ética, derechos y fundamentos sociales
El AI Act no solo regula tecnología: busca salvaguardar derechos fundamentales, dignidad, privacidad, no discriminación, transparencia y seguridad.
También plantea desafíos técnicos y legales sobre cómo medir, evaluar y auditar riesgos de IA: sesgos, impactos en grupos vulnerables, adaptabilidad, explicabilidad, responsabilidades.
Y al mismo tiempo configura una nueva oportunidad: la regulación como base de una IA responsable, ética y humana —un camino para que innovación y derechos vayan de la mano.
Conclusión
El EU AI Act marca un antes y un después en la regulación de la inteligencia artificial. Por primera vez en la historia, un bloque político adopta un marco legal integral, ambicioso y avanzado para gobernar la IA. Esto redefine cómo concebimos, desarrollamos y usamos IA en Europa —y potencia su influencia global.
Más allá de restricciones, el reglamento busca asegurar que la IA sea confiable, ética, centrada en las personas y respetuosa de derechos fundamentales. Para empresas, desarrolladores y usuarios, representa tanto un reto de adaptación como una oportunidad estratégica: la de construir una IA sostenible, responsable y competitiva.
Para actores fuera de Europa —como los de América Latina, incluyendo el Perú—, el AI Act también puede servir de referencia: un modelo de gobernanza que podría inspirar regulaciones locales.
Este artículo fue elaborado por el equipo de AutomatizaPro, especialistas en automatización, inteligencia artificial y tecnología aplicada.

Preguntas frecuentes sobre la IA Act
¿Qué es exactamente el AI Act?
Es el primer reglamento integral de la UE sobre inteligencia artificial, que regula su desarrollo, comercialización y uso mediante un enfoque basado en riesgos.
¿A quién se aplica?
A proveedores, distribuidores, importadores, usuarios o cualquier organización que desarrolle o ponga en servicio sistemas de IA dentro del mercado europeo —incluso si están fuera de Europa.
¿Qué pasa con los modelos de IA generales (GPAI)?
También están regulados: deben cumplir obligaciones de transparencia, documentación, seguridad, manejo de derechos de autor y evaluación de riesgos.
¿Cuándo entra en vigor?
El reglamento fue publicado en 2024. Algunas disposiciones (prohibiciones, obligaciones iniciales) ya se activaron desde febrero de 2025; otras, como las reglas para IA de alto riesgo, tendrán plazos de aplicación hasta 2026–2027.
¿Qué impacto puede tener fuera de Europa?
Debido a su alcance extraterritorial, empresas globales que quieran operar en Europa deberán adaptarse. Además, muchos países podrían inspirarse en este marco para desarrollar sus propias regulaciones de IA.

