- Carlos Martínez Rojas
- futuro de la humanidad, inteligencia artificial Latinoamérica, regulación IA, riesgo existencial IA, seguridad en IA
- 456 Vistas
Introducción
¿Puede la inteligencia artificial representar un peligro para la humanidad?
En los últimos años, la inteligencia artificial (IA) ha avanzado a una velocidad vertiginosa. Desde asistentes conversacionales como ChatGPT hasta sistemas capaces de generar imágenes, música o incluso escribir código, la IA se está integrando en todos los aspectos de la vida moderna. Pero junto con sus beneficios, también surgen advertencias inquietantes: ¿podría una IA causar un daño tan grande que amenace nuestra existencia como especie?
Esta pregunta ya no es solo ciencia ficción. De hecho, líderes de empresas como OpenAI, Google DeepMind y Anthropic han firmado declaraciones públicas afirmando que la IA representa un “riesgo de extinción comparable a pandemias o guerras nucleares”.
Y aunque muchas veces se piensa que estas discusiones solo aplican a potencias como EE.UU. o China, lo cierto es que América Latina también está expuesta a los riesgos sistémicos de la IA.
¿Qué es un riesgo existencial y cómo se relaciona con la IA?
Un riesgo existencial es cualquier amenaza que pueda llevar a la extinción de la humanidad o a un colapso irreversible de su potencial. En el contexto de la IA, esto significa que un sistema avanzado podría actuar en contra de los intereses humanos —ya sea por accidente, desalineación de objetivos o búsqueda de poder— y desencadenar un evento catastrófico.
Existen dos caminos posibles:
- Un colapso abrupto, causado por una IA superinteligente que escapa al control humano.
- Una degradación progresiva, donde múltiples sistemas de IA más simples afectan la economía, la política y la confianza social hasta provocar un colapso institucional global.
Ambos escenarios, aunque distintos, representan riesgos reales si no se gestiona adecuadamente el desarrollo de la IA.
¿Cómo se mide un riesgo de este tipo?
Aunque es difícil estimar con precisión algo que nunca ha ocurrido, los expertos en seguridad tecnológica han desarrollado métodos para medir o al menos anticipar señales de peligro:

1. Estimaciones de expertos
Encuestas a investigadores revelan que muchos estiman entre 5 % y 10 % de probabilidad de una catástrofe existencial causada por IA en este siglo.
2. Modelos de escenarios
Simulaciones con diferentes trayectorias posibles: por ejemplo, una IA que se vuelve autónoma y mejora su propio código, o una serie de pequeñas fallas que se acumulan hasta crear una crisis global.
3. Monitoreo de señales tempranas
Uso de indicadores para detectar comportamientos riesgosos en los sistemas actuales: como IAs que se vuelven impredecibles, errores en decisiones financieras automatizadas o manipulación informacional masiva.
¿Y esto cómo afecta a América Latina?
Aunque el desarrollo de IA está concentrado en el hemisferio norte, los efectos de sus fallas se sienten globalmente. En regiones como América Latina, existen factores que agravan el impacto de estos riesgos:
- Infraestructura digital débil: muchos países no tienen sistemas resilientes para resistir ataques o fallas provocadas por IAs mal gestionadas.
- Gobiernos con baja capacidad regulatoria: la mayoría carece de leyes específicas sobre IA, lo que dificulta prevenir o reaccionar ante eventos problemáticos.
- Desigualdad social y económica: amplifica los efectos de la automatización descontrolada, el desempleo tecnológico y la manipulación de información.
En Perú, por ejemplo, el uso de IA en servicios públicos y privados está creciendo, pero no hay aún un marco regulatorio robusto para evaluar riesgos mayores. Esto abre la puerta a problemas de seguridad, privacidad e incluso desestabilización institucional si no se actúa a tiempo.
¿Qué se puede hacer?
Medir el riesgo existencial de la IA no es una ciencia exacta, pero sí una herramienta clave para la prevención. Algunas acciones concretas que se proponen a nivel internacional (y que Perú y la región podrían adoptar) son:
- Inversión en investigación sobre IA segura
- Creación de organismos reguladores con capacidad técnica real
- Evaluación obligatoria de impacto de nuevos modelos de IA
- Colaboración regional en monitoreo y gobernanza de IA
- Educación ciudadana sobre los riesgos y beneficios de la IA
Conclusión:
El riesgo existencial de la IA no es una exageración apocalíptica, sino una posibilidad real que se discute en los círculos más serios de la tecnología global. Y aunque América Latina aún no sea protagonista en el desarrollo de estas tecnologías, sí será afectada por sus consecuencias.
Por eso, es vital que desde países como Perú empecemos a formar capacidades locales para evaluar, anticipar y responder a los riesgos de la IA. El futuro no se predice, se diseña. Y medir los riesgos es el primer paso para diseñarlo bien.
Dudas frecuentes sobre IA y riesgo para la humanidad
¿Qué es un riesgo existencial por IA?
Es la posibilidad de que una inteligencia artificial cause la extinción humana o un daño irreversible a nuestra civilización.
¿Puede pasar en América Latina?
Sí, aunque el desarrollo de IA es global, sus efectos pueden impactar gravemente a países con menor preparación tecnológica o regulatoria.
¿Cómo se mide este tipo de riesgo?
A través de estimaciones de expertos, escenarios hipotéticos, indicadores tempranos y análisis de impacto potencial.
¿Qué se puede hacer para prevenirlo?
Crear regulaciones, invertir en IA segura, monitorear riesgos y educar a la sociedad sobre las implicancias de la IA avanzada.

