Llamado urgente a que la IA “no cause daño” en biomedicina

foto-resumen

Por Catalina Miller En hospitales de todo Estados Unidos, los modelos impulsados por IA ya están mejorando los flujos de trabajo hospitalarios, ayudando al personal de la sala de emergencias a clasificar a los pacientes y predecir el riesgo de mortalidad, y guiando las decisiones de diagnóstico y tratamiento en la clínica , todo sin ningún sistema implementado para garantizar que estos usos sean seguro y equitativo, dice Carole Federico , becaria de Ética de GSK.ai-Stanford en la Universidad de Stanford. No tiene por qué ser así, afirma: “Hay maneras de empezar a implementar cambios hoy y hacerlo de forma inteligente”. Federico y Artem Trotsyuk , también becario de GSK.ai-Stanford, recientemente fueron coautores de un artículo con los profesores de Stanford Mildred Cho , Russ Altman y David Magnus titulado Stronger Regulation of AI in Biomedicine , publicado enScience Translational Medicine. Es un llamado urgente para que los líderes gubernamentales e institucionales trabajen juntos en un plan nacional para garantizar que la IA no dañe a los pacientes. Y dicen que no es necesario reinventar la rueda. De hecho, el artículo detalla una serie de acciones para las que existen precedentes en otros contextos. Según Trotsyuk, “estas cosas que se han hecho anteriormente sólo necesitan traducirse en corolarios que puedan aplicarse a la IA biomédica”. Del plan a la realidad, de arriba hacia abajo Un reciente documento técnico que describe una Declaración de Derechos de la IA publicado por la Oficina de Política Científica y Tecnológica de la Casa Blanca sirvió como punto de partida para el equipo. Concebida como una guía para la sociedad, la Declaración de Derechos de la IA identifica principios importantes a considerar en el diseño, uso e implementación de la IA en biomedicina. "Es fantástico hasta donde llega, pero no tiene dientes", dice Trotsyuk. Para cambiar eso, el documento del equipo combina cada una de las principales recomendaciones de la Declaración de Derechos de la IA con un precedente de cómo podría implementarse. Un elemento clave: la coordinación de arriba hacia abajo. Como ejemplo, señalan el Marco Coordinado para la Regulación de la Biotecnología de 1986, que trabajó con varias agencias federales (Administración de Alimentos y Medicamentos de EE.UU., Agencia de Protección Ambiental y Departamento de Agricultura de EE.UU.) para desarrollar un enfoque integral para garantizar la seguridad de la biotecnología y productos biotecnológicos. Un marco similar para la IA biomédica implicaría una red aún más distribuida de agencias e instituciones reguladoras que tendrían que trabajar juntas, afirma Federico. Entonces, por ejemplo, las estrategias desarrolladas por un panel interdisciplinario de expertos en IA biomédica proporcionarían orientación coordinada de arriba hacia abajo sobre cómo la FDA debe evaluar los algoritmos de IA biomédica; reembolsado por los Centros de Servicios de Medicare y Medicaid; revisado por juntas de revisión institucional de hospitales y universidades; y regulado por los estados, que tienen control sobre lo que los hospitales y los médicos pueden y no pueden hacer. Federico espera que el resultado sea un enfoque nacional integral para mantener la IA segura y equitativa. Guía para la investigación y la atención clínica En lo que respecta a la investigación, Federico y Trotsyuk enumeran varias opciones para la acción inmediata. En primer lugar, proponen convocar un equipo de expertos interdisciplinarios para la supervisión de la investigación biomédica de IA. Se inspiraría en el equipo de expertos que coordinó la investigación sobre la virulencia y transmisibilidad del virus COVID durante la pandemia. Además, proponen establecer niveles de riesgo aceptables para la investigación financiada con fondos federales similares a los propuestos por la Ley de Inteligencia Artificial de la Unión Europea , que podrían incluir la prohibición total de ciertos tipos de investigación; establecer un proceso de revisión especial para subvenciones federales en IA biomédica que se basaría en el Comité de Supervisión de la Investigación de Células Madre Embrionarias ; y exigir que los investigadores piensen en el impacto de cada proyecto de investigación antes de que los fondos institucionales se entreguen a un beneficiario (una propuesta inspirada en la Revisión de Ética y Sociedad de Stanford ). También existe la necesidad de una supervisión posterior a la aprobación de las herramientas de inteligencia artificial que pueden volverse inseguras o sesgadas con el tiempo a medida que se ajustan con nuevos datos. "Tiene que haber una manera de garantizar que se realice el ajuste y que alguien esté observando cómo funciona el modelo después de ajustarlo", dice Federico. Para abordar este problema, ella y Trotsyuk señalan las pautas que desarrolló la FDA para el uso del aprendizaje automático en dispositivos médicos. Pero estas directrices no van lo suficientemente lejos y necesitan ser más específicas y obligatorias, afirman. El equipo también insta a la FDA a exigir una mayor transparencia a los diseñadores de IA biomédica que acuden a ellos para solicitar la aprobación del producto. Específicamente, dice Trotsyuk, la FDA debería exigir claridad sobre de dónde provienen los datos de capacitación, si son representativos de las personas a las que afectará y si hay sesgo en el conjunto de datos. También debe haber claridad sobre cómo el algoritmo toma decisiones y cómo se explicará eso a los pacientes. Las reglas de reembolso de atención médica establecidas por los Centros de Servicios de Medicare y Medicaid también pueden proporcionar incentivos y amenazas para que los desarrolladores garanticen que sus productos sean seguros, eficaces y equitativos. La agencia también puede garantizar que todos los pacientes –no sólo aquellos con seguro privado– puedan compartir los beneficios de las tecnologías de IA. En lo que respecta a la atención clínica, debería haber políticas sobre cuándo es apropiado implementar la IA en un sistema hospitalario, qué se debe revelar a los pacientes sobre el uso de la IA en su atención y cómo los pacientes pueden, si lo desean, optar por no participar. del uso de la IA en su atención, dice Federico. El Hospital Stanford ya está dando ejemplo al desarrollar estos estándares y políticas internamente, dice Trotsyuk. Y la Comisión Conjunta, el organismo que establece estándares de atención médica responsable de la acreditación de hospitales, podría tomar el enfoque de Stanford como punto de partida para desarrollar políticas que otros hospitales podrían seguir. Se necesita acción inmediata A los hospitales y las instituciones académicas ya les preocupa poder implementar sistemas de inteligencia artificial sin saber si son seguros y equitativos, dice Federico. Esto le da la esperanza de que los cambios a nivel institucional, como la adopción del proceso de Revisión de Ética y Sociedad de Stanford, puedan implementarse rápida y ampliamente. Mientras tanto, podría llevar algún tiempo implementar algunas de las regulaciones de arriba hacia abajo. Pero los desarrolladores de IA biomédica también se beneficiarían de una mayor claridad sobre los estándares para no causar daño. Sin barreras de seguridad claras, podrían causar daños a los pacientes sin darse cuenta y potencialmente enfrentar responsabilidad por sus acciones. Es necesario que haya palos y zanahorias en todos los niveles, dice Federico. "Debería haber una motivación para hacer lo que sea necesario, pero también sanciones si los desarrolladores, hospitales o médicos no siguen las reglas".