- María López Fernández
- 49 Vistas
Introducción
La incorporación de sistemas de inteligencia artificial (IA) al entorno laboral está creciendo con fuerza. Sin embargo, un fenómeno cada vez más visible es que los propios trabajadores —ya sean desarrolladores, moderadores de contenido, o usuarios finales— manifiestan una desconfianza significativa hacia esos sistemas, incluso cuando participan en su desarrollo o despliegue. Esta desconfianza en IA laboral no solo afecta la adopción y eficacia de la tecnología, sino también la cultura organizacional, la seguridad y la productividad. En este artículo analizaremos por qué ocurre, qué factores la alimentan, y cómo las empresas pueden enfrentar este nuevo desafío.
Contexto histórico
Para entender la desconfianza en IA laboral, conviene repasar algunos hitos clave:
- Desde la década de 2010, la IA ha pasado de experimentos académicos a herramientas de negocio que prometen automatización, eficiencia y análisis predictivo.
- Con la llegada del modelo generativo de IA y plataformas como ChatGPT y similares, las expectativas de productividad explotaron, lo que aceleró su adopción en el trabajo.
- Sin embargo, los estudios comenzaron a mostrar que, aunque las herramientas estaban presentes, la confianza en ellas no crecía al mismo ritmo. Por ejemplo, una encuesta de Udacity señaló que aunque el 90 % de los trabajadores usan herramientas de IA, 3 de cada 4 abandonan la tarea antes de completarla por desconfianza en los resultados.
- En 2025, un reportaje del diario The Guardian destacó que numerosos empleados de plataformas de IA advierten a sus familiares que “se mantengan alejados” de los sistemas en los que trabajan, dado que perciben que la velocidad y el volumen tienen prioridad sobre la calidad y seguridad.
- Adicionalmente, un estudio de KPMG encontró que el 57 % de los trabajadores encuestados admitía ocultar ante sus empleadores el uso de IA, lo que refleja un clima de desconfianza o incertidumbre sobre su empleo y efectos.
Estos antecedentes muestran que la adopción de IA no va acompañada automáticamente de confianza, y muchas veces los trabajadores se convierten en los primeros críticos del sistema.
Video recomendado: por qué los trabajadores desconfían de la IA (2025)
Análisis experto
¿Por qué existe desconfianza en IA entre los propios trabajadores?
Varios factores convergen para generar este fenómeno:
- Calidad percibida y fiabilidad de los resultados
- Cuando los sistemas de IA producen resultados erróneos o inconsistencia, los usuarios internos pierden confianza. En la encuesta de Udacity, muchos trabajadores abandonaban la IA porque “la calidad no estaba a la altura”.
- La presión por “lanzar rápido” puede llevar a que los modelos no sean suficientemente auditados o validados, lo que genera inquietud incluso en quienes los han desarrollado. El artículo de The Guardian señala esta tensión entre rapidez y responsabilidad.
- Falta de entrenamiento, gobernanza o transparencia
- Si los empleados no reciben formación adecuada o no entienden cómo opera la IA, la desconfianza crece. En el estudio de KPMG, sólo el 47 % de los empleados recibió algún tipo de capacitación.
- Cuando las políticas de uso son ambiguas o inexistentes, los trabajadores tienden a ocultar su uso de IA o dudar de su legitimidad.

- Pérdida de autonomía y “agencia humana”
- La IA puede desplazar o transformar roles humanos de manera que el trabajador siente que su criterio queda fuera o subordinado. Un artículo de investigación afirma que esta pérdida de agencia epistemológica —es decir, de capacidad de decisión— genera desconfianza.
- Si los trabajadores perciben que las decisiones “ya no dependen de ellos”, pueden cuestionar la utilidad o la justicia del sistema.
- Ambiente de “utilizar a cualquier coste” (shadow IA, uso oculto)
- La adopción oculta o sin aprobación (shadow IA) refleja que los trabajadores no confían en las herramientas oficiales o en que puedan manejar correctamente la IA.
- Esto puede generar un ciclo de menor visibilidad, menor capacitación, mayor error, y por ende, más desconfianza.
- Estigma o prejuicio interno
- Estudios muestran que los trabajadores que usan IA pueden ser vistos como menos competentes o haraganes, lo que afecta la percepción de valor de la IA en sí.
- Cuando el uso de IA se ve como “hacer trampa” o “no trabajar de verdad”, la confianza en la herramienta se deteriora.
Implicaciones para distintas industrias
- Desarrollo de productos IA: Si los ingenieros y moderadores no confían en el modelo que están construyendo, podrían sabotean o minimizar su uso, disminuyendo la calidad del producto final.
- Atención al cliente / asistencia: Cuando los agentes que trabajan con IA no creen en ella, tienen menos propensión a apoyarla o escalarla, lo que reduce la efectividad del sistema.
- Educación y salud: En sectores críticos, la desconfianza puede impedir que las herramientas de IA sean adoptadas, o peor, que generen errores por falta de supervisión humana.
- Marketing y finanzas: El uso de IA sin confianza puede derivar en decisiones sesgadas o resultados cuestionados internamente, lo que reduce la ventaja competitiva.
Oportunidades
- Las organizaciones que logren construir confianza interna en la IA pueden obtener mayor adopción, mejores resultados y menor fricción en la operación.
- La formación, la transparencia del modelo, la gobernanza responsable y la participación de los trabajadores en el diseño de los sistemas pueden aumentar la legitimidad de la IA.
- Integrar buenos procesos de retroalimentación (human-in-the-loop) y auditoría de resultados permite abordar errores y mejorar la percepción de fiabilidad.
Riesgos
- Si persiste la desconfianza, se corre el riesgo de que la IA se convierta en “pieza ornamental” o se use de forma encubierta (shadow IA), con todos los riesgos de cumplimiento, calidad y seguridad.
- La reputación de la empresa puede verse comprometida si los trabajadores filtran que no confían en los sistemas de IA que venden o usan.
- Pérdida de talento: los profesionales con criterio vigilarán que sus herramientas sean éticas y fiables; si no lo son, podrían abandonar.
- Impacto ético: desconfianza interna también puede implicar que los trabajadores no participen activamente en la detección de sesgos, errores o daños del sistema.
Datos y fuentes
- Reporte de McKinsey & Company: los empleados están más listos para la IA que los líderes, pero “confianza y seguridad” siguen siendo barreras significativas. McKinsey & Company
- Estudio de Udacity: 90 % usa IA en el trabajo, pero 75 % la abandona antes de completar la tarea por falta de confianza. Udacity
- Reporte de KPMG/University of Melbourne: 57 % de los trabajadores oculta su uso de IA, 66 % no evalúa la precisión de los resultados. Business Insider
- Reportaje de The Guardian: trabajadores de IA expresan que los incentivos favorecen velocidad sobre calidad, lo que alimenta desconfianza. The Guardian
Consideraciones éticas y legales
- Transparencia y explicabilidad: Las herramientas de IA en el entorno laboral deben ser explicables y entendibles para los trabajadores, de modo que puedan confiar en ellas y supervisarlas.
- Autonomía humana: La implementación de IA no debe reducir la agencia de los empleados sin que ellos la perciban; si la IA decide o actúa sin control humano, se genera desconfianza.
- Formación y responsabilidad: Las organizaciones tienen la obligación de formar adecuadamente al personal en el uso de IA, y definir responsabilidades claras para fallos o errores. Lanzar una IA sin preparación del equipo genera riesgos legales y éticos.
- Protección de datos internos: El uso oculto de IA, la carga de datos sensibles en herramientas no aprobadas o sin control reflejan brechas de gobernanza que pueden dar lugar a fugas, incumplimientos y conflictos laborales.
- Equidad y confianza colectiva: Si algunos empleados usan IA “a su manera” y otros no, se puede generar un ambiente de desconfianza entre colegas, lo cual afecta la cohesión del equipo y el rendimiento.
- Auditoría y gobernanza: Tener procesos de revisión, pruebas independientes y métricas de confianza interna ayuda a mitigar riesgos y a construir una cultura de uso responsable.

Cierre y conclusión
La “desconfianza en IA laboral” es un reto que muchas organizaciones subestiman: no basta con desplegar sistemas de inteligencia artificial, sino que es clave que los propios trabajadores confíen en ellos, los entiendan, los validen y los adopten con convicción. Solo de este modo la IA dejará de ser un experimento incómodo o sospechoso en el trabajo para convertirse en un verdadero aliado. Las empresas que diseñen políticas de formación, participación, transparencia y reconocimiento en torno a la IA tendrán una ventaja competitiva sostenible. AutomatizaPro acompaña a las organizaciones en ese camino hacia la integración confiable de la IA en el entorno laboral.
Preguntas frecuentes sobre la desconfianza en IA laboral (2025)
¿Por qué los empleados desconfían de los sistemas de IA en el trabajo?
Porque perciben errores, falta de supervisión, poca formación o que la IA les quita autonomía.
¿Qué impacto tiene esa desconfianza en la adopción de IA?
Puede llevar a que se use poco, de forma oculta, o que no genere los beneficios esperados.
¿Cómo pueden las empresas mejorar la confianza de los trabajadores en IA?
Ofreciendo capacitación, transparencia en el funcionamiento de la IA, participación del equipo y claridad en gobernanza.
¿Es normal que los trabajadores oculten su uso de IA?
Sí —por ejemplo, un estudio encontró que el 57 % de empleados admitió haber ocultado su uso de IA al empleador.
¿La desconfianza interna puede afectar la calidad del producto final de IA?
Sí —si quienes trabajan con el sistema sienten que no pueden confiar en él, pueden relajarse controles, reducir la auditoría o abandonar su uso, lo que afecta la calidad.

