- María López Fernández
- FDA IA, inteligencia artificial en salud, regulación de IA médica, software como dispositivo médico
- 849 Vistas
Introducción
La irrupción de la inteligencia artificial (IA) en el sector salud ha generado avances sin precedentes, desde diagnósticos asistidos por algoritmos hasta monitoreo remoto con precisión quirúrgica. Sin embargo, esta transformación tecnológica plantea un dilema urgente para autoridades sanitarias y fabricantes: ¿cómo debe regularse una solución de IA médica? ¿Como un simple software o como un dispositivo médico?
Esta interrogante no es menor. La categorización legal y regulatoria define si un sistema necesita aprobación previa de agencias como la FDA (Food and Drug Administration) en EE. UU., la EMA en Europa o la ANMAT en Argentina. De ello dependen los plazos de desarrollo, los ensayos clínicos requeridos y, en última instancia, el acceso de los pacientes a estas tecnologías.
En este artículo analizamos el contexto histórico, el marco legal emergente y los impactos concretos que esta distinción conlleva. Un contenido esencial para desarrolladores de IA, profesionales de la salud, juristas y responsables de políticas públicas.
Contexto histórico: cómo llegamos hasta aquí
La integración de IA en salud no es nueva, pero su complejidad actual ha superado a los marcos regulatorios tradicionales.
1. Primeros sistemas expertos (décadas de 1970-1990)
En sus inicios, la IA médica se limitaba a sistemas expertos como MYCIN, diseñado para diagnosticar infecciones bacterianas. Estas herramientas no requerían regulación como dispositivos médicos porque eran utilizadas principalmente como herramientas educativas o de apoyo, sin tomar decisiones autónomas.
2. Software clínico convencional (2000-2010)
Con la digitalización de los registros médicos y la aparición de software de apoyo clínico, comenzaron a surgir interrogantes regulatorias. Sin embargo, la mayoría de estas plataformas eran consideradas sistemas de información y no entraban en la categoría de dispositivo médico.
3. IA autónoma y machine learning (2010 en adelante)
La llegada de algoritmos de deep learning capaces de detectar anomalías en imágenes médicas con precisión superior a la humana —como en retinografías o mamografías— provocó un punto de inflexión. Ahora, el software ya no solo asistía, sino que decidía, lo que puso en jaque las definiciones regulatorias tradicionales.
Análisis experto: ¿por qué importa esta distinción?
Dispositivo médico vs. software: definición legal
Un dispositivo médico, según la FDA, es cualquier instrumento o software destinado a diagnosticar, curar, tratar o prevenir una enfermedad o afección sin tener un efecto químico dentro o sobre el cuerpo. Si el software realiza una función médica autónoma, como emitir un diagnóstico o recomendar un tratamiento, puede ser considerado dispositivo médico.
Por otro lado, un software de uso general, incluso si se usa en contextos clínicos, no entra en esta categoría si no cumple funciones críticas en el proceso de atención.
Criterios clave que marcan la diferencia:
- Finalidad médica explícita.
- Autonomía en la toma de decisiones clínicas.
- Impacto directo en el diagnóstico o tratamiento.
- Capacidad adaptativa (algoritmos que aprenden).
Modelos de IA que sí califican como dispositivos médicos
- Algoritmos que detectan cáncer en mamografías.
- Sistemas de IA que predicen riesgo de sepsis en tiempo real.
- Plataformas de IA que recomiendan dosis de insulina.

Modelos que no califican (aunque estén en el entorno clínico)
- Aplicaciones de seguimiento de actividad física.
- Chatbots informativos sobre salud general.
- Recordatorios de medicación sin análisis clínico.
Casos emblemáticos y normativas vigentes
Estados Unidos: enfoque de la FDA
La FDA lanzó en 2019 su marco para software como dispositivo médico (SaMD), en colaboración con la International Medical Device Regulators Forum (IMDRF). Este enfoque contempla incluso software que evoluciona con el tiempo gracias al aprendizaje automático.
Uno de los primeros modelos de IA aprobados por la FDA fue IDx-DR, un sistema que detecta retinopatía diabética sin intervención de un oftalmólogo. Su aprobación marcó un antes y un después en cómo se regula el software autónomo.
Europa: Reglamento MDR y AI Act
La Unión Europea avanzó con dos marcos regulatorios clave:
- El Medical Device Regulation (MDR) establece que el software que tenga un propósito médico específico se considera dispositivo médico.
- El emergente AI Act categoriza los sistemas de IA según su riesgo. Las aplicaciones médicas entran dentro de los sistemas de riesgo alto, lo que implica mayor supervisión y pruebas.

Latinoamérica: desafíos y rezagos
En la mayoría de los países latinoamericanos, las agencias regulatorias aún se apoyan en marcos tradicionales. Sin embargo, Brasil y Argentina han iniciado consultas públicas para adaptar sus normativas, en línea con los estándares internacionales.
Impacto en las industrias: salud, legal, educación y más
Salud
- Ventaja: la regulación como dispositivo médico asegura eficacia y seguridad.
- Desafío: los largos procesos de aprobación retrasan la adopción.
Desarrollo de software e innovación
- A mayor regulación, mayor carga para startups y desarrolladores pequeños.
- Aumenta la necesidad de pruebas clínicas, documentación y trazabilidad de datos.
Legal
- Se abre un nuevo campo en derecho sanitario y propiedad intelectual.
- Surgen conflictos sobre responsabilidad civil ante errores de IA.
Educación y formación profesional
- Médicos deben formarse en el uso seguro de estas herramientas.
- Aparece el rol de “especialista en IA médica” como figura clave.
Marketing y distribución
- Las estrategias de comercialización deben alinearse con el estatus regulatorio.
- Algunos modelos requieren registros sanitarios, otros no.
Consideraciones éticas y legales
La principal inquietud gira en torno a la responsabilidad en caso de error. ¿Quién responde si una IA falla en un diagnóstico? ¿El fabricante, el desarrollador del algoritmo, el profesional que lo utilizó?
Además, el uso de datos sensibles para entrenar algoritmos exige niveles altos de transparencia y consentimiento informado.
Finalmente, la explicabilidad de los modelos se vuelve crítica. Un sistema que decide sin que se entienda cómo lo hace (caja negra) no es aceptable en contextos clínicos.
Conclusión
La regulación de IA en salud representa uno de los mayores desafíos del siglo XXI. Clasificar correctamente estas herramientas como software o como dispositivos médicos es más que una formalidad: define su impacto real en la salud pública, la innovación tecnológica y los derechos de los pacientes.
Las autoridades regulatorias deben encontrar un equilibrio entre fomentar la innovación y proteger a los usuarios, mientras que los desarrolladores deben prepararse para navegar un terreno legal cada vez más complejo.
Preguntas frecuentes sobre la regulación de la IA en salud
¿Qué es un software como dispositivo médico (SaMD)?
Es un software que cumple funciones médicas específicas, como diagnóstico o tratamiento, y es regulado como un dispositivo médico por organismos como la FDA.
¿La IA médica siempre necesita aprobación regulatoria?
No siempre. Depende de su función. Si toma decisiones clínicas o afecta directamente el tratamiento, sí necesita aprobación.
¿Qué implica que un sistema de IA sea de “alto riesgo” según el AI Act?
Implica que debe cumplir requisitos estrictos de seguridad, transparencia, trazabilidad y supervisión humana.
¿Cuáles son los beneficios de regular la IA como dispositivo médico?
Garantiza que el producto sea seguro y eficaz, genera confianza en pacientes y profesionales, y establece responsabilidades claras.

