Publicado el 29 jul. 2024
La inteligencia artificial (IA) tiene el potencial de transformar la prestación de servicios de salud al mejorar la precisión de los diagnósticos, agilizar las operaciones administrativas y aumentar la participación de los pacientes. Entre 2017 y 2021, el sector de la salud recibió más inversión privada en IA a nivel mundial que cualquier otro, atrayendo 28.900 millones de dólares .
El entusiasmo por estas nuevas tecnologías sanitarias ha ido acompañado desde hace tiempo de preocupaciones sobre la seguridad de los pacientes, los sesgos perjudiciales y la seguridad de los datos. Los reguladores se enfrentan al reto de fomentar estas herramientas innovadoras y, al mismo tiempo, preservar algoritmos de aprendizaje automático seguros, justos y protegidos dentro de las limitaciones de los marcos regulatorios creados en una era de dispositivos físicos, registros en papel y datos analógicos. La rápida adopción de la IA en los procesos sanitarios crea una necesidad urgente de revisar los marcos regulatorios existentes.
Reconociendo esta brecha, el Instituto Stanford para IA Centrada en el Ser Humano (HAI) convocó a un grupo selecto de 55 formuladores de políticas, científicos, proveedores de atención médica, especialistas en ética, desarrolladores de IA y defensores de pacientes para un taller a puertas cerradas en mayo de 2024. La reunión fue organizada por el Comité Directivo de Políticas de IA en Atención Médica del HAI, un comité multidisciplinario de profesores de Stanford que trabaja para promover políticas e investigaciones en estas áreas, para destacar las principales brechas en las políticas de IA y galvanizar el apoyo a los cambios regulatorios.
En el marco de la Regla de Chatham House, los participantes analizaron las deficiencias de la política federal de inteligencia artificial en materia de atención médica en tres áreas: software de inteligencia artificial para el apoyo a la toma de decisiones clínicas, herramientas de inteligencia artificial para empresas de atención médica y aplicaciones de inteligencia artificial orientadas al paciente. A continuación, resumimos los temas clave, las consideraciones de política y las opiniones de los participantes para cada área regulatoria.
La atención sanitaria es una de las industrias más reguladas en Estados Unidos, y los amplios marcos regulatorios de la industria ya se están aplicando a la IA.
La Administración de Alimentos y Medicamentos (FDA) tiene la responsabilidad regulatoria de muchos sistemas de software, principalmente a través de su proceso de autorización de dispositivos 510(k), que considera al software como un dispositivo médico (SaMD) . Las aplicaciones de IA utilizadas en contextos administrativos y clínicos empresariales deben cumplir con las reglas de la Oficina del Coordinador Nacional de Tecnología de la Información de Salud que, por ejemplo, exige transparencia algorítmica . La gobernanza de las herramientas de IA de salud directas al consumidor se enmarca en varios marcos de productos de consumo, aunque todavía se ha producido poca aplicación en esta área incipiente.
Estos marcos regulatorios están obsoletos. La autoridad regulatoria de la FDA, establecida en 1976, fue diseñada para regular dispositivos de hardware, no software que dependa de datos de entrenamiento y requiera un meticuloso monitoreo continuo del desempeño. De manera similar, la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA, por sus siglas en inglés), una ley de 1996 que estableció estándares nacionales para la privacidad y seguridad de los datos de salud, es anterior a la explosión de la información sanitaria digital. Sus disposiciones no previeron la necesidad de grandes cantidades de registros de pacientes para entrenar algoritmos de aprendizaje automático.
Un participante señaló que los reguladores están conduciendo un Chevy Impala por las carreteras de 2024 y que tienen dificultades para adaptarse a las condiciones actuales de las carreteras. Los paradigmas regulatorios tradicionales en el ámbito de la atención médica necesitan adaptarse urgentemente a un mundo de rápido desarrollo de la IA. La gran mayoría de los participantes del taller cree que es necesario un marco regulatorio nuevo o sustancialmente modificado para una gobernanza eficaz de la IA en el ámbito de la atención médica.
Caso de uso 1: IA en software como dispositivo médico
Los desarrolladores de nuevos dispositivos médicos basados en IA con capacidades de diagnóstico enfrentan actualmente un gran desafío: el proceso de aprobación de dispositivos por parte de la FDA les exige presentar evidencia de cada capacidad de diagnóstico individual. En el caso de productos de IA con cientos de capacidades de diagnóstico, como un algoritmo que puede detectar prácticamente todas las anomalías que pueden aparecer en una radiografía de tórax, presentar cada una de ellas para su aprobación reglamentaria no es comercialmente viable. Esto puede dar lugar a que las empresas de software globales lancen al mercado productos de categoría inferior y menos innovadores y obstaculicen la innovación en dispositivos médicos basados en IA en Estados Unidos.
Los participantes del taller propusieron nuevos enfoques de políticas para ayudar a agilizar la aprobación de comercialización de estos sistemas de software multifuncionales y, al mismo tiempo, garantizar la seguridad clínica. En primer lugar, las asociaciones público-privadas serán cruciales para gestionar la carga probatoria de dicha aprobación, con un posible enfoque en el avance de la vigilancia posterior a la comercialización. En segundo lugar, los participantes apoyaron un mejor intercambio de información durante el proceso de aprobación de los dispositivos. Compartir detalles sobre los datos de prueba y el rendimiento de los dispositivos durante el proceso de aprobación podría permitir a los proveedores de atención médica evaluar mejor si las herramientas de software funcionarán de manera segura en sus prácticas. Aunque la FDA ha aprobado cerca de 900 dispositivos médicos que incorporan software de inteligencia artificial o aprendizaje automático, la adopción clínica ha sido lenta ya que las organizaciones de atención médica tienen información limitada en la que basar sus decisiones de compra.
Por último, algunos participantes pidieron categorías de riesgo más precisas para los dispositivos médicos que funcionan con IA, la gran mayoría de los cuales actualmente están clasificados como dispositivos de clase II con riesgo moderado. El riesgo clínico varía mucho entre los diferentes tipos de dispositivos de software de IA/aprendizaje automático, lo que requiere un enfoque más personalizado. Por ejemplo, un algoritmo que mide las dimensiones de un vaso sanguíneo para su posterior revisión por parte de una persona tiene un riesgo menor que un algoritmo que clasifica las mamografías para evitar la revisión por parte de una persona.
Caso de uso 2: IA en operaciones y administración clínica empresarial
¿Debe un ser humano estar siempre al tanto de las herramientas de IA autónomas que se integran en los entornos clínicos? Las tecnologías de IA totalmente autónomas, como las que diagnostican enfermedades oculares o informan automáticamente radiografías de tórax normales, prometen resolver la grave escasez de recursos médicos. Otras formas de automatización, como las tecnologías de inteligencia ambiental que redactan respuestas a los correos electrónicos de los pacientes o capturan notas de progreso durante las interacciones médico-paciente, también mejoran enormemente la eficiencia en los entornos clínicos.
Algunos participantes abogaron por la supervisión humana para garantizar la seguridad y la fiabilidad, mientras que otros advirtieron de que los requisitos de intervención humana podrían aumentar la carga administrativa de los médicos y hacerlos sentir menos responsables de las decisiones clínicas resultantes. Algunos identificaron las pruebas de laboratorio como un modelo híbrido exitoso, en el que un dispositivo es supervisado por un médico y se somete a controles de calidad periódicos. Cualquier valor fuera de rango es controlado por un humano.
La integración de la IA en los entornos clínicos también plantea la cuestión de qué niveles de transparencia necesitan los proveedores de atención médica y los pacientes para utilizar las herramientas de IA de forma segura. ¿Qué responsabilidades tienen los desarrolladores para comunicar información sobre el diseño, la funcionalidad y los riesgos de los modelos (por ejemplo, mediante tarjetas de modelos , que son similares a una “etiqueta nutricional” que los proveedores de atención médica pueden utilizar para tomar decisiones informadas sobre si utilizar o no una herramienta de IA)?
Además, ¿debería informarse a los pacientes cuando se utiliza IA en cualquier etapa de su tratamiento y, de ser así, cómo y cuándo? Los pacientes suelen delegar las decisiones sobre qué tecnología utilizar (desde bisturís hasta ventanas emergentes de apoyo a la toma de decisiones) en sus cuidadores y las organizaciones sanitarias para las que trabajan. Y ya se utilizan formas menos sofisticadas de IA en todo el sistema sanitario, como sistemas basados en reglas que advierten sobre interacciones entre fármacos. Sin embargo, muchos participantes opinaron que en algunas circunstancias, como un mensaje de correo electrónico que supuestamente proviene de un proveedor de atención médica, se debería informar al paciente de que la IA desempeña un papel.
Caso de uso 3: Aplicaciones de IA orientadas al paciente
Cada vez hay más aplicaciones orientadas al paciente, como los chatbots de salud mental basados en LLM , que prometen democratizar el acceso a la atención médica u ofrecer nuevos servicios a los pacientes a través de dispositivos móviles. Sin embargo, no se han establecido medidas de seguridad específicas para garantizar que estas aplicaciones orientadas al paciente basadas en LLM no brinden información médica dañina o engañosa, incluso o especialmente cuando los chatbots afirman que no ofrecen asesoramiento médico, a pesar de compartir la información de una manera que se asemeja mucho a un consejo médico.
Es urgente aclarar el estatus regulatorio de estos productos para pacientes. Sin embargo, los participantes del taller no estuvieron de acuerdo sobre si las aplicaciones de IA generativa, por ejemplo, deberían regirse más como dispositivos médicos o como profesionales médicos.
La perspectiva del paciente es fundamental para garantizar la fiabilidad de las aplicaciones de IA para la atención sanitaria y del sistema sanitario en general. Muchos participantes señalaron que los pacientes rara vez participan en el desarrollo, la implementación o la regulación de las aplicaciones de IA para pacientes. Se deben tener en cuenta las necesidades y los puntos de vista de todas las poblaciones de pacientes para garantizar que los marcos regulatorios aborden las disparidades sanitarias causadas o exacerbadas por la IA.
¿Que viene después?
Estas son solo algunas de las muchas preguntas e inquietudes que rodean el futuro de la regulación de la IA en el ámbito de la atención médica. Se necesitan muchas más investigaciones multidisciplinarias y debates entre múltiples partes interesadas para responder a estas preguntas y desarrollar soluciones políticas viables que garanticen la seguridad y, al mismo tiempo, respalden un enfoque ágil que lleve al mercado aplicaciones de IA innovadoras que salven vidas. HAI y su Comité Directivo de Políticas de IA en el ámbito de la atención médica seguirán realizando investigaciones en estas áreas para respaldar marcos normativos y de políticas que conduzcan al uso seguro, equitativo y eficaz de la IA en el ámbito de la atención médica.
Autores:
Caroline Meinhardt, Alaa Youssef, Rory Thompson, Daniel Zhang, Rohini Kosoglu, Kavita Patel y Curt Langlotz