El sector salud ha vivido en la última década una profunda transformación digital, impulsada por tecnologías como la inteligencia artificial, el aprendizaje automático, los dispositivos conectados y las plataformas de análisis de datos. Estas herramientas han mejorado la forma en que se diagnostica, se trata y se monitoriza a los pacientes, creando un nuevo paradigma en la atención sanitaria y abriendo oportunidades para la industria farmacéutica y de dispositivos médicos.
Sin embargo, la adopción de estas tecnologías también ha generado desafíos. Uno de los más relevantes es el cumplimiento de normativas que garanticen que estos sistemas sean seguros, eficaces, éticos y transparentes. En este contexto, conceptos como Software as a Medical Device (SaMD), Medical Device Software (MDSW) y el recientemente aprobado AI Act en la Unión Europea cobran gran protagonismo.
SaMD vs. MDSW: Términos clave según la región
La distinción entre SaMD y MDSW es fundamental para entender claramente las complejas y cambiantes obligaciones legales actuales de los desarrolladores de software médico innovador y seguro.
- SaMD (Software as a Medical Device): Según la FDA de Estados Unidos, se trata de software con uno o más fines médicos, que no está incorporado en un hardware físico. Ejemplos son las apps que detectan arritmias o los algoritmos que interpretan imágenes médicas.
- MDSW (Medical Device Software): En la Unión Europea, este término se aplica bajo los reglamentos MDR (Medical Device Regulation) e IVDR (In Vitro Diagnostic Regulation). Abarca tanto software autónomo como aquel que opera junto a un dispositivo físico, siempre que tenga una finalidad médica.
Ambos conceptos son funcionalmente similares, pero se diferencian en su marco regulatorio y en los procesos de evaluación y certificación requeridos en cada región.
Regulación en Estados Unidos
La FDA ha desarrollado guías para facilitar la clasificación del software médico y ha definido rutas regulatorias claras a través de los proceso estándares como la Premarket Notification (510(k)), la ruta De Novo o el Premarket Approval (PMA) para asegurar así que las soluciones cumplan con estándares de seguridad y eficacia.
Este enfoque incluye:
- Validación continua del ciclo de vida del software.
- Evaluación de riesgos adaptativa según el impacto clínico.
- Promoción de planes de control de cambios predefinidos (PCCP).
Los PCCP permiten modificar algoritmos de IA sin necesidad de repetir todo el proceso regulatorio, siempre que los cambios estén dentro de los márgenes preaprobados. Esto es clave para permitir actualizaciones seguras y ágiles en sistemas de aprendizaje automático que evolucionan con el tiempo.
Europa y el AI Act
En Europa, el marco legal se vuelve más complejo. A las exigencias de MDR e IVDR se suma el AI Act, aprobado en 2024 y pionero en establecer reglas específicas para sistemas de inteligencia artificial en sectores de alto impacto.
El AI Act clasifica los sistemas de IA en cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable. Los sistemas que influyen en decisiones médicas, como diagnósticos, recomendaciones terapéuticas o predicciones clínicas (Clase IIa, IIb y III bajo MDR 2017/745 y Clase B, C o D bajo IVDR 2017/746), se consideran de alto riesgo y deben cumplir con:
- Evaluación de conformidad por Organismos Notificados (ON).
- Supervisión humana sobre los resultados del sistema.
- Transparencia, trazabilidad y explicabilidad del funcionamiento del algoritmo.
- Gestión de datos con criterios de privacidad, equidad y no sesgo.
Esta normativa introduce un régimen de doble cumplimiento: los desarrolladores deben respetar tanto las exigencias del MDR/IVDR como las nuevas del AI Act, lo que implica revisar su documentación técnica, procesos de validación y protocolos éticos.
Documentación técnica
Tanto en EE. UU. como en la UE, la documentación técnica es clave para la aprobación y mantenimiento del software médico. Debe incluir:
- Uso previsto y clasificación de riesgo: La definición del propósito clínico determina el nivel de riesgo y la ruta regulatoria.
- Diseño y validación: Es fundamental seguir Buenas Prácticas, normas como IEC 62304 e ISO 13485, y documentar requisitos, pruebas y resultados. Para IA, también se exige describir los datasets utilizados y su representatividad.
- Ciberseguridad: Las vulnerabilidades de seguridad pueden afectar la integridad de los datos clínicos y poner en riesgo la salud de los pacientes. Por ello, cada vez más autoridades exigen planes de gestión de riesgos que incluyan estrategias de detección de intrusiones, cifrado de datos y planes de contingencia.
- AI/ML: El aprendizaje automático introduce desafíos adicionales, pues el modelo puede cambiar a lo largo del tiempo. Por esta razón, las autoridades, tanto en EE. UU. como en la UE, están promoviendo la elaboración de Predetermined Change Control Plans (PCCP). Con este sistema, se establecen límites definidos para la modificación del algoritmo y se plantea un proceso de evaluación continua que no requiera repetir todo el ciclo de aprobación.
Implicaciones regulatorias y de mercado
La convergencia de la regulación de software médico y la IA está transformando la industria. Por un lado, brinda mayores garantías a los pacientes y profesionales sanitarios, reforzando la seguridad y la eficacia de las innovaciones tecnológicas. Por otro lado, exige a los fabricantes y desarrolladores un grado de sofisticación mayor en sus procesos de diseño, validación y poscomercialización.
En el caso específico del AI Act, surge la necesidad no solo de cumplir con los requisitos clásicos de la regulación de productos sanitarios (como la evaluación clínica y la gestión de riesgos), sino también con los principios de ética y supervisión humana que el reglamento de IA establece. Entre ellos se incluyen la transparencia del funcionamiento de los algoritmos, la trazabilidad de decisiones y un aseguramiento de que los datos utilizados respetan la privacidad y son representativos de la población destino.
Oportunidades de futuro
El avance de la salud digital es imparable: análisis de imágenes, monitorización remota, herramientas de apoyo a la decisión clínica, entre otros, se integran ya en la medicina cotidiana. A medida que estas tecnologías se vuelven más complejas y autónomas, el cumplimiento normativo deberá ir de la mano con estrategias de actualización, control y vigilancia.
A futuro, se prevé un ecosistema de software médico capaz de aprender de la experiencia clínica diaria.
Para lograrlo de forma segura, los fabricantes deben anticipar planes robustos de modificación controlada, validación continua y protección contra riesgos emergentes.
La salud digital requiere más que innovación: demanda cumplimiento normativo riguroso y ético. Las empresas deben prepararse para una era de doble conformidad, ajustando sus procesos a estándares que garanticen seguridad y trazabilidad. El sector podrá beneficiarse si adopta un enfoque colaborativo y basado en evidencia, integrando desde el inicio a expertos técnicos, clínicos y usuarios.
Descarga sugerida:
Artículo escrito por:
Diego Sanoja
Medical Device Associate Manager
ASPHALION