- Carlos Martínez Rojas
- democracia digital, ética tecnológica, gobernanza algorítmica, inteligencia artificial, legislación automatizada
- 286 Vistas
Introducción
La idea de que una inteligencia artificial (IA) asuma funciones de legisladora puede sonar propia de la ciencia ficción, pero en 2025 la discusión sobre la gobernanza algorítmica –esto es, la capacidad de algoritmos o sistemas de IA para emitir normas, regular comportamientos o incluso legislar– ha ganado fuerza. Pero ¿es factible? ¿Qué implicaciones trae para la democracia, los derechos ciudadanos y el Estado? En este artículo exploramos qué significa gobernar mediante algoritmos, qué papel podrían tener los sistemas de IA en la creación de normas y cuáles son los límites éticos, técnicos y legales de permitir que una IA legisle o co-legisle.
Contexto histórico
1. De la administración pública al algoritmo
Desde hace décadas los gobiernos han incorporado sistemas automatizados para tareas como el registro civil, la asignación de recursos públicos o la fiscalización. Sin embargo, con el auge del aprendizaje automático y la IA, los algoritmos empiezan a tomar decisiones con impacto más directo sobre los derechos ciudadanos: clasificación de solicitantes de ayudas, predicción de riesgo, selección de propuestas de políticas. Esta transición ha evolucionado en lo que se llama “regulación algorítmica” o “gobierno por algoritmos”.
2. Gobernanza algorítmica como término clave
El concepto de gobernanza algorítmica refiere al uso de algoritmos como medio para regular, supervisar o mediar comportamientos, decisiones públicas o colectivas. Asimismo, la gobernanza del propio algoritmo —es decir, controlar cómo los algoritmos se diseñan, implementan y regulan— es un campo en auge.
3. Hacia la delegación normativa
En algunos estudios se empieza a plantear no solo que los algoritmos ejecuten decisiones (por ejemplo, asignar beneficios, sancionar conductas) sino que participen en la creación normativa: plantear reglas, modelos de regulación adaptativa, sistemas que autoajustan normas en base a datos. Este es un paso más allá: de “algoritmo que aplica” a “algoritmo que legisla”.
Análisis experto
¿Qué implicaría que una IA sea legisladora?
Que un sistema de IA legisle implicaría que:
- Reciba información (datos, métricas, comportamientos sociales) y genere propuestas normativas o reglas que afecten a la colectividad.
- Evalúe efectos, ajuste parámetros y revise de modo autónomo las normas, posiblemente en tiempo real.
- Sustituya o complemente legisladores humanos en funciones como redacción de leyes, códigos, regulaciones o políticas públicas.

Oportunidades
- Eficiencia y velocidad: Una IA puede procesar grandes volúmenes de datos, analizar consecuencias históricas, modelar escenarios y proponer reglas más rápidamente que un proceso legislativo tradicional.
- Adaptación dinámica: Podría ajustar normativas en base a datos nuevos (por ejemplo, tras una crisis sanitaria, ambiental o tecnológica) con menor rezago que los mecanismos legislativos tradicionales.
- Reducción de sesgos humanos en algunos casos: Si está bien diseñada, puede reducir la influencia de lobbies, intereses particulares o errores humanos en la fase de formulación normativa.
Riesgos y obstáculos
- Transparencia, explicabilidad y rendición de cuentas: Los algoritmos pueden operar como “cajas negras”. Si la IA propone normas sin que su lógica sea comprensible, se debilita la legitimidad democrática.
- Sesgos y desigualdades embebidos: Los sistemas de IA aprenden de datos históricos que pueden contener discriminaciones. Si una IA legisla, podría reproducir o incluso amplificar esas desigualdades.
- Licitud del poder delegador: ¿Quién autoriza que una IA tenga capacidad normativa? ¿Cuál es su base democrática? Estudios recientes abordan la “autoridad constitucional del poder algorítmico”.
- Responsabilidad legal: Si una norma propuesta por IA resulta lesiva, ¿quién responde? El desarrollador, la entidad política, la IA como “actor”? Los marcos legales aún son incipientes.
- Desconexión con valores humanos: Las normas no solo codifican relaciones causales, sino también valores, cultura, ética. Una IA podría no captar o respetar plenamente esos matices.
Aplicaciones sectoriales
- Salud pública: Una IA podría generar protocolos de emergencia o normativa sanitaria adaptativa en pandemias.
- Medio ambiente: Podría legislar (o co-legislar) regulaciones automáticas para emisiones o consumo energético según datos en tiempo real.
- Transporte y ciudades inteligentes: Normas dinámicas para movilidad, tránsito, zonas bajas emisiones podrían estar bajo algoritmos.
- Mercado laboral y educación: Sistemas normativos que adapten derechos, capacitación o redistribución en base a tendencias de empleo.
- Marketing, privacidad y datos: Normativas automáticas de protección de datos que se ajusten a usos emergentes.
¿Dónde estamos hoy?
No existe (al menos públicamente) un sistema de IA que legisle por sí solo una jurisdicción democrática. Lo que sí ocurre es que se usan algoritmos para apoyar formuladores de políticas o para automatizar ciertos reglamentos administrativos. La literatura sobre gobernanza algorítmica advierte que el gran reto no es solo técnico, sino institucional y normativo.
Datos y fuentes
- Según la United Nations University, “el problema algorítmico en la gobernanza de IA” radica en que los algoritmos están imbuidos de decisiones subjetivas (métricas, datos, optimizaciones), lo que complica alinear esos sistemas con valores sociales.
- La World Economic Forum señala que la gobernanza algorítmica debe entenderse como las reglas y prácticas para construir y usar algoritmos de modo que no provoquen discriminación, sesgos o incumplimiento legal.
- El manual del proyecto JuLIA project (2025) aborda los límites legales de la gobernanza algorítmica en la administración pública, incluidas violaciones de derechos fundamentales si se aplican algoritmos sin garantías.
Consideraciones éticas y legales
Permitir que una IA actúe como legisladora plantea preguntas profundas: ¿cuál es su fuente de legitimidad democrática? ¿Puede una máquina representar la voluntad del pueblo? ¿Cómo garantizamos que respeta los derechos humanos, la igualdad y el pluralismo?
La ética de una IA legisladora exige: diseño transparente, explicable, con participación ciudadana, y mecanismos claros de supervisión y recurso. Regulaciones como las que impulsa la European Union apuntan a reducir riesgos en decisiones automatizadas en la administración pública.
A nivel legal, la delegación de poder público a sistemas automatizados choca con principios constitucionales: soberanía popular, separación de poderes, rendición de cuentas. Tal como explican estudios recientes, la autoridad algorítmica debe estar estructurada bajo principios como la autorización participativa, la contestabilidad y la resistencia ciudadana.
Por último, el derecho de las personas a explicaciones, a no ser objeto de decisiones automáticas sin revisión humana, también será clave. En suma: una IA legisladora solo sería aceptable si se inserta dentro de un ecosistema jurídico-democrático que garantice derechos, transparencia y control humano.
Cierre y conclusión
En resumen, la gobernanza algorítmica abre la puerta a que una IA participe o incluso asuma funciones de legisladora, pero todavía estamos lejos de que esto ocurra de forma autónoma y legítima. Los beneficios de eficiencia y adaptación normativa son enormes, pero también lo son los riesgos de injusticia, opacidad y falta de legitimidad.
Para que una IA pueda legislar será necesario un marco robusto que combine tecnología, ética, derecho y democracia. En ese sentido, AutomatizaPro afirma que la integración de IA en el poder normativo debe realizarse con cuidado, previsión y participación ciudadana.
El futuro está abierto: la IA no sustituirá a la voluntad colectiva, pero sí podría reforzarla —siempre que implantemos salvaguardas a tiempo.

Preguntas frecuentes sobre Gobernanza Algorítmica
¿Qué es gobernanza algorítmica?
Es el conjunto de reglas, prácticas e instituciones que regulan el uso de algoritmos para tomar decisiones, supervisar o normar comportamientos en la sociedad.
¿Puede una IA ya legislar en algún país?
No hay ejemplos democráticos plenamente autónomos donde una IA legisle sin supervisión humana; actualmente los algoritmos ayudan o automatizan partes del proceso normativo.
¿Cuáles son los principales riesgos de que una IA legisle?
Entre ellos: falta de transparencia, sesgos incorporados, déficit de legitimidad democrática, responsabilidades legales poco claras.
¿Qué garantías se necesitan para que una IA participe en la legislación?
Transparencia, explicabilidad, participación ciudadana, supervisión humana, mecanismos de rendición de cuentas y derecho a impugnación.
¿Dónde puedo profundizar sobre este tema?
Puedes consultar obras como Algorithmic Governance and Governance of Algorithms y manuales legales como los del proyecto JuLIA sobre IA y administración pública.

