Por Andrés Myers Si bien muchos profesionales de la salud creen que los modelos de lenguaje generativo como ChatGPT algún día serán comunes en las evaluaciones médicas, no está claro cómo encajarán estas herramientas en el entorno clínico. Un nuevo estudio señala el camino hacia un futuro en el que los médicos humanos y la IA generativa colaboren para mejorar los resultados de los pacientes. En un entorno médico simulado en el que los pacientes informaban de dolores en el pecho, los médicos aceptaron el consejo de un prototipo de agente médico similar a ChatGPT e incluso adaptaron voluntariamente sus diagnósticos basándose en los consejos de la IA. El resultado fueron mejores resultados para los pacientes. En el ensayo, 50 médicos autorizados revisaron vídeos de actores blancos y negros que describían sus síntomas de dolor en el pecho y electrocardiogramas para realizar evaluaciones de los pacientes basadas en la clasificación, el riesgo y el tratamiento. En el siguiente paso del estudio, a los médicos se les presentaron recomendaciones basadas en ChatGPT derivadas de las mismas conversaciones y se les pidió que reevaluaran sus propias evaluaciones. Sabiduría no convencional El estudio encontró que los médicos no sólo eran receptivos a los consejos de la IA, sino que también estaban dispuestos a reconsiderar sus propios análisis basándose en esos consejos. Lo más importante es que esta voluntad condujo a una “mejora significativa” en la precisión de las decisiones clínicas de los médicos. También es notable que la composición racial y de género del grupo de pacientes no fue una casualidad, sino que se estructuró cuidadosamente en el estudio para garantizar que la IA no introdujera ni intensificara los prejuicios raciales o de género existentes, lo cual, según el estudio, no ocurrió. Los hallazgos del estudio van en contra de la sabiduría convencional de que los médicos pueden mostrarse resistentes, o incluso antagónicos, a la introducción de la IA en sus flujos de trabajo. “Este estudio muestra que los médicos que trabajan con IA lo hacen de forma colaborativa. No es en absoluto contradictorio”, dijo Ethan Goh, investigador de IA en atención médica en el Centro de Investigación de Excelencia Clínica (CERC) de Stanford y primer autor del estudio. "Y, cuando la herramienta de IA es buena, la colaboración produce mejores resultados". El estudio fue publicado en forma preimpresa por medRxiv y fue aceptado formalmente en una conferencia revisada por pares, la Cumbre de Informática AMIA en Boston en marzo. Momento histórico Goh se apresura a señalar que las herramientas de IA utilizadas en el estudio son solo un prototipo y aún no están listas ni aprobadas para su aplicación clínica. No obstante, los resultados son alentadores sobre las perspectivas de futuras colaboraciones entre médicos y la IA, afirmó. “El punto general es que cuando tengamos esas herramientas, algún día podrían resultar útiles para aumentar el número de médicos y mejorar los resultados. Y, lejos de resistirse a tales herramientas, los médicos parecen dispuestos, e incluso bienvenidos, a tales avances”, dijo Goh. En una encuesta posterior al ensayo, la mayoría de los médicos confirmaron que anticipan plenamente que las herramientas basadas en modelos de lenguaje (LLM) de gran tamaño desempeñarán un papel importante en la toma de decisiones clínicas. Como tal, los autores escriben que este estudio en particular es "un hito crítico" en el progreso de los LLM en medicina. Con este estudio, la medicina va más allá de evaluar si los LLM generativos pertenecen al entorno clínico, sino exactamente cómo encajarán en ese entorno y cómo apoyarán a los médicos humanos en su trabajo, no los reemplazarán, dijo Goh. "Ya no se trata de si los LLM reemplazarán a los médicos en la clínica (no lo harán), sino de cómo los humanos y las máquinas trabajarán juntos para mejorar la medicina para todos", dijo Goh.