Las regulaciones estatales de EE. UU. aceleran ante el uso de IA en selección de personal

Introducción

El uso de inteligencia artificial (IA) en los procesos de contratación y selección de personal se está expandiendo rápidamente en los Estados Unidos. Sistemas automatizados que filtran currículos, evalúan entrevistas por vídeo o predicen desempeño del candidato ya no son tecnología de laboratorio: están en muchas empresas. Sin embargo, también han emergido preocupaciones crecientes sobre sesgo algorítmico, discriminación inadvertida, falta de transparencia y pérdida de control humano.
Ante ello, las regulaciones estatales de EE. UU. están acelerando para poner guardrails (vallas de contención) al uso de IA en selección de personal. En este artículo analizamos qué está ocurriendo, por qué importa, qué implicancias tiene para empresas y candidatos, y qué viene a futuro.

Contexto histórico

De la contratación tradicional a la contratación automatizada

Durante décadas, la selección de personal dependió de currículos, entrevistas presenciales y decisiones humanas. Con el auge del big data y del aprendizaje automático, surgieron herramientas que prometen mayor eficiencia: filtrar miles de candidatos, evaluar habilidades a través de vídeo o predecir desempeño.
No obstante, ya desde los años 90 existen marcos legales clave:

  • Title VII of the Civil Rights Act of 1964 que prohíbe discriminación por raza, color, religión, sexo u origen nacional.
  • Age Discrimination in Employment Act (ADEA) de 1967, que prohíbe discriminación por edad contra mayores de 40.

Estas normas fueron concebidas cuando el “decisor” era humano; la llegada de la IA cambia los desafíos: algoritmos pueden replicar sesgos históricos, dificultar supervisión humana o generar decisiones rápidas sin transparencia

Emergencia del marco regulatorio en EE. UU.

En el ámbito federal, hasta ahora no existe una ley específica que regule la IA en la contratación de personal. Las leyes existentes siguen aplicándose, pero no fueron diseñadas para algoritmos.
Por ello, muchos estados y algunas ciudades han tomado la delantera regulando el uso de sistemas automatizados de decisión en empleo, evaluación de personal y selección. Por ejemplo:

  • En New York City, la Local Law 144 requiere auditorías de sesgo sobre herramientas automatizadas de decisión de empleo desde el 5 de julio de 2023.
  • En Illinois, la ley modificada al Illinois Human Rights Act prohíbe el uso de IA que discrimine en decisiones de empleo, a partir de 1 de enero de 2026.
  • En Colorado, la Colorado Artificial Intelligence Act estipula obligaciones para sistemas “de alto riesgo” que intervienen en empleos, con vigencia a partir del 1 de febrero de 2026.

En resumen: estamos ante una aceleración regulatoria interesada en la selección de personal asistida por IA.

Análisis experto

¿Por qué se acelera la regulación en selección de personal?

1. Riesgo de discriminación algorítmica. Los algoritmos pueden tener sesgos sistémicos: por edad, género, raza, discapacidad u origen. Las normas de empleo tradicionales ya lo prohíben, pero la IA lo hace más complejo.
2. Transparencia y responsabilidad. Cuando una empresa usa IA para filtrar candidatos, ¿quién explica por qué un candidato fue descartado? ¿El algoritmo? ¿La empresa? Las leyes emergentes buscan exigir transparencia y auditorías. Ejemplo: la obligación de notificar al candidato que se utilizará IA.
3. Presión social y reputacional. Un error de IA en selección puede derivar en demandas, cobertura negativa, pérdida de talento y daños de marca.
4. Brecha regulatoria federal. En ausencia de una ley federal específica, los estados toman la iniciativa, creando un mosaico regulatorio que las empresas deben navegar.

¿Qué implican estas regulaciones para empresas y profesionales de RRHH?

Para empresas que usan IA en selección de personal:

  • Deben realizar evaluaciones de impacto o auditorías de sesgo (por ejemplo, en NY C o Colorado).
  • Deben informar a los candidatos cuando se utiliza IA en el proceso de selección o entrevistas. Ejemplo: NY C exige aviso 10 días antes.
  • Deben conservar datos y registros del sistema automatizado durante ciertos años (por ejemplo, cuatro años en California).
  • Deben documentar que el sistema no resulta en un impacto desproporcionado contra grupos protegidos.
  • Si operan en varios estados, deben adaptarse a diferentes marcos normativos, lo que implica mayor complejidad de cumplimiento.

Para candidatos, trabajadores y profesionales del derecho laboral:

  • Mayor derecho a saber cuándo una IA interviene en la evaluación de su candidatura.
  • Posibilidad de solicitar alternativas o revisión humana cuando fueron afectados por decisiones automatizadas.
  • Incremento en litigios o escrutinio por discriminación algorítmica; por ejemplo, reclamaciones que una IA filtró sistemáticamente a un grupo protegido.

¿Qué aplicaciones tiene esta regulación en sectores específicos?

  • Marketing y selección digital: Plataformas de evaluación automática deberán garantizar que sus algoritmos no penalicen a candidatos por origen, género, edad o código postal.
  • Desarrollo de software de RRHH: Los proveedores de IA de selección tendrán que adaptar sus productos para cumplir auditorías, métricas de sesgo y transparencia.
  • Legal y cumplimiento: Los departamentos legales deberán reconfigurar políticas de contratación, privacidad de datos y auditoría de sistemas automatizados.
  • Educación y formación: Las escuelas de negocios y programas de RRHH deberán preparar profesionales que sepan integrar IA en contratación de manera ética y legal.

Oportunidades y riesgos

Oportunidades:

  • Las empresas que implementen IA responsablemente podrán diferenciarse, atraer talento diverso y reducir tiempos de contratación.
  • Los proveedores de IA con certificaciones de auditoría, transparencia y “bias audit” tendrán ventaja competitiva.
  • Los candidatos se benefician de procesos más eficientes y menos arbitrarios.

Riesgos:

  • Costos de adaptación y cumplimiento elevado para empresas que operan en múltiples estados.
  • Si no se gestionan bien, las regulaciones podrían hacer que algunas compañías abandonen el uso de IA de selección o posterguen innovación.
  • La fragmentación regulatoria (estado por estado) puede generar incoherencia, riesgo de sanciones y complejidad operativa.
  • Dependencia excesiva en IA seguida de falta de supervisión humana puede generar casos de discriminación, con consecuencias jurídicas y reputacionales.

Datos y fuentes

  • Más de 20 estados de EE. UU. han considerado legislación que aborda la discriminación algorítmica en el empleo. LexisNexis
  • En Illinois, la ley exige que los empleadores notifiquen a los empleados cuando se emplee IA para decisiones de contratación, promoción u otras decisiones de empleo. Wyatt, Tarrant & Combs, LLP
  • En Colorado, la ley define los sistemas de IA “alto riesgo” y exige programas de gestión de riesgos, auditorías anuales y divulgación. GovDocs
  • En Nueva York City, los empleadores deben notificar con al menos 10 días cuando usarán IA en entrevistas, además de hacer pública la auditoría de sesgo más reciente.

Consideraciones éticas y legales

La regulación del uso de IA en selección de personal no sólo es técnica, sino ética y legal:

  • Privacidad de datos: Los algoritmos de selección recogen grandes cantidades de datos personales. ¿Cómo se almacenan, quién tiene acceso, cómo se borran?
  • Transparencia vs. propiedad intelectual: Las empresas quieren proteger algoritmos como secretos comerciales, pero la regulación exige transparencia sobre cómo se toman decisiones. Este conflicto es central.
  • Supervisión humana: Algunos marcos exigen que la IA no opere sin supervisión humana significativa; eliminar al humano puede implicar responsabilidades legales.
  • Sesgo y justiciabilidad: ¿Cómo demostrar que una IA no discriminó? Métricas de impacto, auditorías independientes, historial de decisiones. Aquí hay retos metodológicos.
  • Fragmentación regulatoria: Si cada estado tiene reglas distintas, la empresa global puede tener que adaptarse a cada jurisdicción – con riesgo de “regulación por defecto” para cumplir lo mínimo.
  • Pre-empción federal: Existe tensión entre regulación estatal progresiva y política federal que podría imponer una moratoria o pre-empción de leyes estatales.

Cierre y conclusión

La adopción de IA en procesos de contratación presenta enormes ventajas en términos de eficiencia, alcance y potencial para reducir errores humanos. Pero también plantea riesgos reales de discriminación, opacidad y pérdida de confianza. Ante la falta de una ley federal específica en EE. UU. que regule la IA en selección de personal, los estados están avanzando con regulaciones propias que imponen obligaciones a empleadores, proveedores de tecnología y sistemas de IA.
Para los profesionales de recursos humanos, del derecho laboral, de tecnología y para las organizaciones en general, el mensaje es claro: no basta adoptar IA—hay que hacerlo con responsabilidad, trazabilidad y cumplimiento normativo.

Mirando al futuro, es probable que veamos una mayor armonización regulatoria, quizás una ley federal que unifique criterios, y un mercado de proveedores de IA que ya venga “pre-auditado” y diseñado para cumplimiento. Entretanto, quienes actúen con anticipación —auditando sus herramientas, documentando procesos, capacitando equipos— estarán mejor posicionados para convertir la regulación en ventaja competitiva.

Este artículo ha sido elaborado por el equipo de AutomatizaPro, especialistas en automatización, inteligencia artificial y tecnología aplicada.

Preguntas frecuentes sobre las regulaciones de IA en la selección de personal

1. ¿Qué obliga exactamente una ley estatal cuando se habla de IA en selección de personal?
Depende del estado, pero típicamente obliga a notificar a candidatos cuando se usa IA, realizar auditorías de sesgo, conservar registros, garantizar supervisión humana y evitar impacto desproporcionado en grupos protegidos.

2. ¿Todas las empresas en EE.UU. están ya sujetas a estas regulaciones?
No aún. Algunas leyes entran en vigencia en el futuro (por ejemplo, 2026 en Illinois y Colorado). También puede depender del tamaño de la empresa o del tipo de sistema de IA (por ejemplo “alto riesgo”).

3. ¿Qué sucede si una empresa viola estas regulaciones?
Las sanciones pueden variar: mandatos de corrección, multas, responsabilidad civil por discriminación. Además, daños reputacionales y litigios por parte de candidatos afectados.

4. ¿Existe una ley federal en EE.UU. que regule la IA en contratación?
Actualmente no hay una ley federal específica que regule la IA en selección de personal; las empresas siguen sujetas a leyes de discriminación existentes y a guías de agencias federales como el U.S. Equal Employment Opportunity Commission (EEOC)

¿Te gustó este artículo? Compártelo en tus redes 👇
wpseo_editor
Editor especializado en tecnología y transformación digital, con 6 años de experiencia en creación de contenido SEO para WordPress. Apasionado por la inteligencia artificial y su impacto en la comunicación moderna. Coordino equipos de redacción y optimización para audiencias hispanohablantes.