La inteligencia artificial (IA) tiene el potencial de transformar la prestación de servicios de salud al mejorar la precisión del diagnóstico, agilizar las operaciones administrativas y aumentar la participación de los pacientes. De 2017 a 2021, el sector sanitario recibió más inversión privada en IA a nivel mundial que cualquier otro, atrayendo 28.900 millones de dólares. El entusiasmo por estas nuevas tecnologías sanitarias ha ido acompañado durante mucho tiempo de preocupaciones sobre la seguridad del paciente, los sesgos dañinos y la seguridad de los datos. Los reguladores se enfrentan al reto de fomentar estas herramientas innovadoras y, al mismo tiempo, preservar algoritmos de aprendizaje automático seguros, justos y protegidos dentro de las limitaciones de los marcos regulatorios creados en una era de dispositivos físicos, registros en papel y datos analógicos. La rápida adopción de la IA en los procesos sanitarios crea una necesidad urgente de revisar los marcos regulatorios existentes. Reconociendo esta brecha, el Instituto de Stanford para la IA Centrada en el Ser Humano (HAI) convocó a un grupo selecto de 55 destacados responsables políticos, científicos, proveedores de atención médica, especialistas en ética, desarrolladores de IA y defensores de los pacientes para un taller a puerta cerrada en mayo de 2024. La reunión fue organizada por el Comité Directivo de Políticas de IA para el Cuidado de la Salud de HAI, un comité multidisciplinario de profesores de Stanford que trabaja para promover la política y la investigación en estas áreas, para resaltar las brechas clave en las políticas de IA y galvanizar el apoyo a los cambios regulatorios. En virtud de la Regla de Chatham House, los participantes discutieron las deficiencias de la política federal de IA en la atención médica en tres áreas: software de IA para el apoyo a la toma de decisiones clínicas, herramientas de IA para empresas de atención médica y aplicaciones de IA orientadas al paciente. A continuación, resumimos los temas clave, las consideraciones de política y las opiniones de los participantes para cada área regulatoria. Como conducir un Chevy Impala de 1976 en las carreteras de 2024 La atención médica es una de las industrias más reguladas en los Estados Unidos. Y los amplios marcos regulatorios de la industria ya se están aplicando a la IA. La Administración de Alimentos y Medicamentos (FDA, por sus siglas en inglés) tiene la responsabilidad regulatoria de muchos sistemas de software, principalmente a través de su proceso de autorización de dispositivos 510(k), que considera el software como un dispositivo médico (SaMD, por sus siglas en inglés). Las aplicaciones de IA utilizadas en contextos empresariales administrativos y clínicos deben cumplir con las reglas de la Oficina del Coordinador Nacional de Tecnología de la Información Sanitaria que, por ejemplo, exigen la transparencia algorítmica. La gobernanza de las herramientas de IA para la salud directa al consumidor se enmarca en varios marcos de productos de consumo, aunque todavía se ha producido poca aplicación en este ámbito incipiente. Estos marcos regulatorios están desactualizados. La autoridad reguladora de la FDA, establecida en 1976, fue diseñada para regular los dispositivos de hardware, no el software que depende de los datos de entrenamiento y requiere un monitoreo meticuloso y continuo del rendimiento. Del mismo modo, la Ley de Portabilidad y Responsabilidad de los Seguros Médicos (HIPAA), una ley de 1996 que estableció normas nacionales para la privacidad y la seguridad de los datos sanitarios, es anterior a la explosión de la información sanitaria digital. Sus disposiciones no preveían la necesidad de grandes cantidades de registros de pacientes para entrenar algoritmos de aprendizaje automático. Los reguladores están conduciendo efectivamente un Chevy Impala en las carreteras de 2024, luchando por adaptarse a las condiciones actuales de la carretera, señaló un participante. Los paradigmas regulatorios tradicionales en la atención médica deben adaptarse urgentemente a un mundo de rápido desarrollo de la IA. La gran mayoría de los participantes en el taller cree que es necesario un marco regulatorio nuevo o sustancialmente modificado para una gobernanza eficaz de la IA en la atención médica. Caso de uso 1: IA en software como dispositivo médico Los desarrolladores de nuevos dispositivos médicos impulsados por IA con capacidades de diagnóstico se enfrentan actualmente a un gran desafío: el proceso de autorización de dispositivos de la FDA requiere que presenten pruebas para cada capacidad de diagnóstico individual. En el caso de los productos de IA con cientos de capacidades de diagnóstico, como un algoritmo que puede detectar prácticamente todas las anomalías que puedan aparecer en una radiografía de tórax, no es comercialmente factible presentar cada uno de ellos para su autorización reglamentaria. Esto puede dar lugar a que las empresas globales de software introduzcan en el mercado productos degradados y menos innovadores y obstaculizar la innovación de dispositivos médicos de IA en Estados Unidos. Los participantes en el taller propusieron nuevos enfoques de política para ayudar a agilizar la aprobación del mercado para estos sistemas de software multifuncionales y, al mismo tiempo, garantizar la seguridad clínica. En primer lugar, las asociaciones público-privadas serán cruciales para gestionar la carga probatoria de dicha aprobación, con un posible enfoque en el avance de la vigilancia posterior a la comercialización. En segundo lugar, los participantes apoyaron un mejor intercambio de información durante el proceso de autorización del dispositivo. Compartir detalles sobre los datos de prueba y el rendimiento del dispositivo durante el proceso de autorización podría permitir a los proveedores de atención médica evaluar mejor si las herramientas de software funcionarán de manera segura en sus prácticas. Aunque la FDA ha autorizado cerca de 900 dispositivos médicos que incorporan software de inteligencia artificial o aprendizaje automático, la adopción clínica ha sido lenta ya que las organizaciones de atención médica tienen información limitada en la que basar las decisiones de compra. Por último, algunos participantes pidieron categorías de riesgo más detalladas para los dispositivos médicos impulsados por IA, la gran mayoría de los cuales están actualmente clasificados como dispositivos de Clase II con riesgo moderado. El riesgo clínico varía mucho entre los diferentes tipos de dispositivos de software de IA/aprendizaje automático, lo que requiere un enfoque más personalizado. Por ejemplo, un algoritmo que mide las dimensiones de un vaso sanguíneo para su posterior revisión en humanos es de menor riesgo que un algoritmo que clasifica las mamografías para evitar la revisión en humanos. Caso de uso 2: IA en operaciones clínicas y administración empresarial ¿Debería un ser humano estar siempre al tanto cuando las herramientas autónomas de IA se integran en los entornos clínicos? Las tecnologías de IA totalmente autónomas, como las que diagnostican afecciones oculares o informan automáticamente sobre radiografías de tórax normales, prometen abordar la grave escasez de recursos médicos. Otras formas de automatización, como las tecnologías de inteligencia ambiental que redactan respuestas a los correos electrónicos de los pacientes o capturan notas de progreso durante las interacciones médico-paciente, también mejoran en gran medida la eficiencia en los entornos clínicos. Algunos participantes abogaron por la supervisión humana para garantizar la seguridad y la fiabilidad, mientras que otros advirtieron que los requisitos de intervención humana podrían aumentar la carga administrativa de los médicos y hacer que se sientan menos responsables de las decisiones clínicas resultantes. Algunos identificaron las pruebas de laboratorio como un modelo híbrido exitoso, en el que un dispositivo es supervisado por un médico y se somete a controles de calidad regulares. Cualquier valor fuera de rango es verificado por un humano. La integración de la IA en los entornos clínicos también plantea la cuestión de qué niveles de transparencia necesitan los proveedores de atención médica y los pacientes para usar las herramientas de IA de manera segura. ¿Qué responsabilidades tienen los desarrolladores a la hora de comunicar información sobre el diseño, la funcionalidad y los riesgos del modelo, por ejemplo, a través de tarjetas de modelos, que son similares a una "etiqueta nutricional" que los proveedores de atención sanitaria pueden utilizar para tomar decisiones informadas sobre si utilizar una herramienta de IA? Además, ¿se debe informar a los pacientes cuándo se está utilizando la IA en cualquier etapa de su tratamiento y, de ser así, cómo y cuándo? Los pacientes a menudo delegan las decisiones sobre qué tecnología usar, desde bisturíes hasta ventanas emergentes de apoyo a la toma de decisiones, a sus cuidadores y a las organizaciones de atención médica para las que trabajan. Y formas menos sofisticadas de IA ya se utilizan en todo el sistema sanitario, como los sistemas basados en reglas que advierten de las interacciones entre fármacos. Sin embargo, muchos participantes consideraron que en algunas circunstancias, como un mensaje de correo electrónico que pretende provenir de un proveedor de atención médica, el paciente debe ser informado de que la IA desempeñó un papel. Caso de uso 3: Aplicaciones de IA orientadas al paciente Un número cada vez mayor de aplicaciones orientadas al paciente, como los chatbots de salud mental basados en LLM, prometen democratizar el acceso a la atención médica u ofrecer nuevos servicios a los pacientes a través de dispositivos móviles. Y, sin embargo, no se han establecido medidas de protección específicas para garantizar que estas aplicaciones orientadas al paciente e impulsadas por LLM no brinden información médica dañina o engañosa, incluso o especialmente cuando los chatbots afirman que no ofrecen consejos médicos, a pesar de compartir información de una manera que se asemeja mucho a los consejos médicos. Se necesita urgentemente una aclaración sobre el estado regulatorio de estos productos orientados al paciente. Sin embargo, los participantes en el taller no estuvieron de acuerdo sobre si las aplicaciones de IA generativa, por ejemplo, deberían regirse más como dispositivos médicos o profesionales médicos. La perspectiva del paciente es crucial para garantizar la fiabilidad de las aplicaciones de IA sanitaria y del sistema sanitario en general. Muchos participantes señalaron que los pacientes rara vez participan en el desarrollo, la implementación o la regulación de las aplicaciones de IA orientadas al paciente. Se deben tener en cuenta las necesidades y los puntos de vista de poblaciones enteras de pacientes para garantizar que los marcos regulatorios aborden las disparidades en salud causadas o exacerbadas por la IA. ¿Qué viene después? Estas son solo algunas de las muchas preguntas y preocupaciones que rodean el futuro de la regulación de la IA en la atención médica. Se necesitan investigaciones mucho más multidisciplinarias y debates entre múltiples partes interesadas para responder a estas preguntas y desarrollar soluciones políticas viables que garanticen la seguridad y al mismo tiempo respalden un enfoque ágil que lleve al mercado aplicaciones de IA innovadoras que salvan vidas. HAI y su Comité Directivo de Políticas de IA en la atención médica continuarán realizando investigaciones en estas áreas para respaldar los marcos normativos y regulatorios que conduzcan al uso seguro, equitativo y eficaz de la IA en la atención médica. Autores: Caroline Meinhardt, Alaa Youssef, Rory Thompson, Daniel Zhang, Rohini Kosoglu, Kavita Patel, Curt Langlotz