- María López Fernández
- California tecnología, Newsom IA, regulación de inteligencia artificial, SB1047 SB53, Silicon Valley
- 173 Vistas
Introducción
La irrupción de la inteligencia artificial (IA) en prácticamente todos los ámbitos —desde salud, educación y negocio hasta empleo y derechos civiles— plantea retos inéditos en términos de regulación, innovación y responsabilidad. En ese escenario, el papel de los estados —y en particular del estado de California— se vuelve clave, al intentar equilibrar por un lado la protección del público y por otro la ventaja competitiva de una industria tecnológica dominante. En este contexto, el gobernador Gavin Newsom ha protagonizado una serie de decisiones que marcan un pulso entre el control regulatorio y la innovación desatada: vetos a proyectos de ley, firma de leyes más “quirúrgicas” sobre IA, y tensiones crecientes con el ecosistema de Silicon Valley.
El presente artículo analiza por qué Newsom ha adoptado esta postura, qué legislación ha quedado en veto o aprobada, y cuáles son las implicancias para la IA aplicada en California, EE.UU. y el mundo de los negocios.
Contexto histórico
Primeros pasos regulativos en California
California es sede de decenas de empresas de IA, centros de investigación punteros y capital de riesgo concentrado. En ese ambiente, comenzaron a proliferar propuestas legislativas para regular la IA antes incluso de que el Congreso de EE.UU. adoptara una ley federal exhaustiva.
En 2024, el senador estatal Scott Wiener presentó el proyecto de ley SB 1047 – Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, que apuntaba a los modelos “frontera” de IA: aquellos con altísimos requisitos de cómputo y potencial de riesgo catastrófico. El texto exigía requisitos como “interruptores de apagado” (kill-switch), pruebas de estrés para los modelos y establecimiento de un clúster público de cómputo (“CalCompute”) para fomentar investigación responsable.
Veto inicial del gobernador Newsom
El 29 de septiembre de 2024, Newsom vetó SB 1047. Su mensaje de veto argumentaba que la ley “aunque bien intencionada” no diferenciaba suficientemente entre usos de IA en alto riesgo y usos más rutinarios, lo que podría imponer cargas excesivas o dar una falsa sensación de seguridad.
El veto generó reacción inmediata: por un lado, grupos de seguridad en IA lamentaron que California no avanzara hacia regulaciones pioneras; por otro, la industria tecnológica celebró que se evitara un marco que, según su versión, podría frenar la innovación y empujar empresas fuera del estado.

Aprobación de un marco regulatorio más moderado
Posteriormente, en 2025, California aprobó la SB 53 – Transparency in Frontier Artificial Intelligence Act, un texto más acotado que se centra en desarrolladores “grandes” de modelos frontera, exige transparencia, reporte de incidentes y protección de denunciantes (whistleblowers).
Así, la secuencia legislativa en California ha sido: propuesta ambiciosa → veto del gobernador → aprobación de regulación menos radical.
Análisis experto
¿Por qué Newsom ha adoptado esta postura?
- Equilibrio innovación-regulación: California alberga una enorme industria de IA, con empleos, inversiones y prestigio asociados. Newsom parece decidido a no imponer regulaciones que, en su opinión, pudieran asfixiar la ventaja competitiva del estado. En su veto a SB 1047 argumentó que “la ley se aplica a todo sistema de gran escala sin considerar el riesgo real de su uso”.
- Enfoque basado en riesgo, no en tamaño: Newsom destacó que una regulación basada únicamente en costos de entrenamiento o tamaño computacional “podría dar al público una sensación equivocada de que la tecnología está controlada”.
- Presión de la industria y de Silicon Valley: Grandes compañías tecnológicas y grupos de lobby en California hicieron campaña para moderar o vetar las regulaciones más estrictas. Por ejemplo, se informó que la industria advirtió sobre pérdidas de inversión o migración de empresas fuera del estado.
- Estratégia incremental: En lugar de imponer un marco amplio de golpe, el gobernador y su oficina prefieren iniciar con normativas más específicas (por ejemplo etiquetas para contenido generado por IA, transparencia, uso en salud) y observar su eficacia antes de más cargas regulatorias.
¿Qué impacto tiene para distintas industrias?
- Salud: Las leyes firmadas hasta ahora establecen que ciertos prestadores de salud deben revelar cuando utilizan IA generativa para comunicación clínica. Esto afecta directamente cadenas de valor en health tech.
- Marketing y medios: La transparencia sobre contenido generado por IA (por ejemplo deepfakes, voces digitales) cobra relevancia, obligando a etiquetas y revelaciones. California se alinea con lo que Europa ya exige en esta materia.
- Desarrollo tecnológico: Las startups de IA pueden sentirse aliviadas ante regulaciones menos estrictas que las previstas inicialmente, lo que favorece inversión, pero puede generar críticas en círculos académicos por la menor protección ante riesgos.
- Empleo y derecho laboral: Proyectos de ley proponían que los empleadores notificaran el uso de IA para decisiones laborales (contratación, despido). Newsom vetó uno de esos proyectos en 2025 por considerarlo “demasiado amplio”.
Oportunidades y riesgos
- Oportunidades: California puede consolidar su liderazgo en IA al no imponer cargas regulatorias extremas de inmediato, atrayendo talento e inversión. Además, la estrategia de “transparencia + riesgo específico” puede convertirse en modelo replicable.
- Riesgos: Una regulación débil puede dejar espacios para abusos (sesgos algorítmicos, privacidad vulnerada, despliegue de IA sin supervisión). También genera tensión política con grupos que piden guardrails más fuertes.
- Tensión con Silicon Valley: Aunque la industria parece ganar en el corto plazo, el ecosistema no es monolítico: hay divergencias internas (startups vs gigantes, open source vs closed models). Y la presión pública puede derivar en regulaciones federales más fuertes si el estado no actúa.
- Escenario federal e internacional: Esta dinámica en California jugará un papel de test para EE.UU. y el mundo. Algunos analistas estiman que la combinación de veto + regulación moderada envía una señal de que la “primera ola” de regulaciones será exploratoria.
Datos y fuentes
- SB 1047 (2024) fue vetada por Newsom el 29 de septiembre de 2024.
- SB 53, la ley de transparencia para IA frontera, fue aprobada en 2025 y es considerada una “ley clave” en regulaciones de IA de EE.UU.
- En octubre de 2025, Newsom también vetó otro proyecto que habría exigido a empleadores notificar el uso de IA para decisiones de empleo (SB 7, “No Robo Bosses Act”).
- Según Los Angeles Times, el veto del gobernador ocurre en un contexto donde “las empresas de tecnología gastaron millones en lobby y amenazaron con trasladarse” si se imponían regulaciones estrictas.

Consideraciones éticas y legales
El pulso entre regulación e innovación en IA plantea varias consideraciones éticas y legales que merecen atención:
- Privacidad y datos personales: El uso de grandes modelos de IA colecta y procesa enormes volúmenes de datos, lo que genera riesgos sobre privacidad, identidad digital, vigilancia y consentimiento.
- Sesgo y discriminación: Los modelos de IA pueden reproducir o amplificar sesgos socio-económicos, raciales, de género o geográficos, lo que obliga a tener frameworks de auditoría y supervisión.
- Transparencia y explicabilidad: La IA “caja negra” dificulta que los usuarios o reguladores entiendan cómo se toman decisiones, lo cual es crítico si la IA impacta salud, justicia o empleo.
- Responsabilidad y rendición de cuentas: ¿Quién responde si un modelo de IA causa daño? ¿La empresa que lo desarrolló, la que lo implementó, el estado que permitió su uso? La regulación debe ser clara.
- Desplazamiento laboral y equidad: La automatización mediante IA puede generar transición en empleos, requerir nuevas competencias y agravar desigualdades si no se gestiona de manera proactiva.
- Innovación versus riesgo existencial: Los legisladores como Newsom plantean que una regulación prematura podría frenar la innovación, pero otros advierten que una IA sin guardrails puede generar riesgos incluso existenciales (por ejemplo, manipulación de opinión pública, armas autónomas).
- Jurisdicción y competencia regulatoria: California actúa como “laboratorio” estatal, pero la IA es global. Normas divergentes entre estados o países pueden crear “refugios regulatorios” o desincentivar ciertas prácticas responsables.

Cierre y conclusión
La trayectoria de Gavin Newsom frente a la regulación de la IA en California ilustra una estrategia de matices: rechazar ley demasiado amplia que podría frenar la innovación, mientras avanzar una regulación más controlada que promueva transparencia, reporte de riesgos y protección limitada de los más vulnerables. El veto de SB 1047 y la firma de SB 53 muestran un camino intermedio: no bloqueo total, pero tampoco la aprobación sin condiciones.
Para empresas, desarrolladores y observadores internacionales, el mensaje es doble: California continuará siendo un actor clave en IA, y la presión regulatoria llegará, pero no será de golpe, sino probablemente incremental. En ese proceso, Silicon Valley —y el ecosistema tecnológico— siguen jugando un papel central, tanto como motor de innovación como factor de presión política.
Para los próximos años, conviene observar cómo California implementa SB 53 (y otras leyes relacionadas), qué impacto tiene en inversión y migración de empresas, y cómo se coordina o choca con regulaciones federales o internacionales. En el mundo de la IA aplicada en educación, salud, marketing, empleo o derecho, este escenario será determinante.
Este artículo fue elaborado por el equipo de AutomatizaPro, especialistas en automatización, inteligencia artificial y tecnología aplicada.
Preguntas frecuentes sobre las decisiones de Newsom y la regulación de la IA en California
¿Por qué el gobernador Newsom vetó SB 1047?
Porque consideró que la norma era demasiado amplia, se aplicaba por tamaño de modelo sin distinguir riesgos reales, y podía obstaculizar la innovación.
¿Qué novedades trae SB 53 en California?
Exige a los desarrolladores de modelos de IA “frontera” la publicación de marcos de seguridad, reporte de incidentes, protección a denunciantes y acceso a clúster público de cómputo.
¿Qué significa esta dinámica para las empresas de IA en Silicon Valley?
Implica que la regulación vendrá, pero de forma más medida; las empresas deben prepararse para obligaciones de transparencia y seguridad sin que necesariamente se impongan regulaciones drásticas de entrada.
¿Podría haber regulación federal más estricta que la de California?
Sí. Si los estados no establecen suficientes guardrails o se fragmentan las normas, puede surgir una regulación federal o coordinada internacionalmente para establecer estándares mínimos de seguridad, transparencia y equidad en IA.
¿Cómo afecta esto a los usuarios comunes?
Los usuarios en California pueden esperar mayor obligación de transparencia sobre el uso de IA (por ejemplo en salud, chatbots, empleo), pero también una mayor exposición a tecnologías de IA más amplias debido al énfasis en innovación.

