Nº5 HOSPITALTEC

Acesabio informa... Conviene extremar la cautela con versiones públicas o gratuitas que no garanticen condiciones claras de tratamiento; en su lugar, deberían emplearse solo soluciones autorizadas por el centro, con salvaguardas técnicas y contractuales. Además, debe recordarse al personal, mediante formación periódica, que no utilice estos sistemas para apoyo diagnóstico o terapéutico con casos reales, limitándolos a tareas compatibles (p. ej., redacción genérica o apoyo administrativo sin datos identificativos). 20 N º 5 MDAI con inteligencia artificial generativa puede experimentar numerosos cambios a lo largo del tiempo, auditar cada modificación sería inabordable. La propuesta contempla un plan de control de cambios predeterminados, evaluado durante la certificación del producto, que define el alcance y los límites de los cambios permitidos sin que cada uno constituya una modificación sustancial. Este enfoque equilibra flexibilidad e innovación con control y trazabilidad, asegurando que cualquier desviación significativa active mecanismos de notificación y reevaluación. Calendario de aplicación Esta propuesta sigue un proceso de tramitación lento en la Unión Europea. En primer lugar, la Comisión Europea debe elaborar una propuesta y remitirla al Parlamento Europeo y al Consejo para su revisión. Posteriormente, el Parlamento podrá proponer enmiendas, que deberán ser aprobadas por el Consejo para su adopción. Si no se alcanza un acuerdo, el procedimiento se El uso de LLMs en el entorno hospitalario En el caso de los modelos de lenguaje (LLM) y herramientas de IA generativa de propósito general (p. ej., ChatGPT, Gemini o Copilot), deben implantarse políticas internas que regulen su uso con datos clínicos, definiendo qué información puede introducirse, con qué finalidad y bajo qué controles (Fig. 2). No debe permitirse introducir datos de pacientes identificables o no anonimizados, por riesgo de incumplir el Reglamento General de Protección de Datos y las obligaciones de confidencialidad. repetirá y, si persisten las diferencias, se convocará un Comité de Conciliación para llegar a un consenso. Una vez aprobado el texto, se realizará una lectura final para su adopción definitiva. Para su entrada en vigor, los presidentes del Parlamento y del Consejo deben firmarlo y, tras su publicación en el Diario Oficial de la UE, será aplicable en toda la Unión Europea. No se prevé que entre en vigor antes de 2027. En conclusión, aunque se han logrado avances significativos en la regulación de los sistemas informatizados con IA y, en particular, de aquellos cuyo uso previsto recae bajo el MDR o el IVDR , persisten incertidumbres regulatorias. La complejidad de estos sistemas plantea retos que aún deben resolverse para consolidar una normativa definitiva. Por ello, el marco regulatorio continúa evolucionando, evidenciando la necesidad de una mayor consolidación que equilibre la innovación con la protección de pacientes y usuarios. Gestión del cambio en sistemas IA Uno de los desafíos más relevantes radica en la gestión de cambios en sistemas con capacidades de aprendizaje continuo. Tanto el MDR como el IVDR establecen que un cambio en el algoritmo de un sistema informatizado es un cambio significativo y, por tanto, debe ser auditado por un organismo notificado antes de su implementación. Dado que un Reglamento (UE) 2024/1689 del Parlamento Europeo y del consejo de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). (1) Figura 2. Uso de modelos de lenguaje ( LLM ) en el entorno hospitalario: gobernanza y protección de datos

RkJQdWJsaXNoZXIy OTAxNDYw