Inteligencia artificial podría optimizar la detección de pacientes en riesgo cardiovascular

foto-resumen

Por Pablo Hernández Mares Guadalajara, Jalisco.- "La llegada de la inteligencia artificial es la promesa de utilizar métodos diferentes, y ¿qué hace la inteligencia artificial diferente de lo que hacen los modelos estadísticos tradicionales? Varias cosas, pero lo principal es que puede ver relaciones que no son lineales o que no son logarítmicas, relaciones complejas, relaciones intrincadas que la matemática no las puede predecir", aseguró el Dr. Francisco López-Jiménez, cardiólogo adscrito al Departamento de Cardiología de la Mayo Clinic, en Rochester, Estados Unidos, en la conferencia Predicción de eventos cardiovasculares mediante inteligencia artificial: ¿hemos llegado ya?, durante el Congreso Anual de Cardiología Internacional (CADECI) 2023.[1] A diferencia de muchas áreas en la medicina, en la cardiología se tiene la capacidad de prevenir de 70 a 80% de los eventos cardiovasculares si se les da el tratamiento adecuado a tiempo, por lo que es importante la detección de pacientes en riesgo. "Una de las razones principales para la detección de pacientes en riesgo es que los recursos son limitados, no importa el país donde se viva, no hay tratamiento para todos y entonces se tiene que estudiar al paciente que tiene mayor probabilidad de [presentar] un evento para que sea quien reciba los tratamientos preventivos", aseguró. El especialista explicó que el primer paso cuando se quiere detectar riesgo, es saber qué tan probable es un evento, si es algo raro o común, "en cardiología, tenemos diferentes escenarios con diferentes probabilidades, por ejemplo, la probabilidad de tener un infarto en los próximos 10 años en la población de los Estados Unidos es por lo menos de 5% en general, pero el riesgo puede ser de 1% hasta más de 30%". En tanto, refirió el Dr. López-Jiménez, las personas que sufren un infarto, la probabilidad de tener otro infarto en los próximos 2 o 3 años es de 10 a 20% y es de cerca de 40% en los próximos 5 años. "¿Cómo empezó todo esto de la ciencia de predicción? Predecir quién va a tener un un evento adverso, seguramente lo iniciaron, desde antes de que la medicina existiera en la manera que la conocemos, imagino que cualquier médico en toda la historia ha tenido esa pregunta, pero realmente el esfuerzo, ya más concreto más organizado y de manera científica inició por los años 50, y de una manera muy simple escoger predictores de acuerdo a qué tiene sentido, lo que los expertos creen que puede predecir algo, después agregar los puntaje y después tratar de definir o comprobar que el que tiene más puntos es más probable que tenga un evento". Como antecedente, el Dr. López-Jiménez recordó la puntuación APGAR, desarrollada por la Dra. Virginia Apgar, una evaluación clínica del neonato al minuto de edad para valorar la necesidad de una rápida intervención para establecer la respiración, "es muy simple, se asigna 1 punto o 2, dependiendo si está presente el [parámetro evaluado] y si está muy evidente también".[2](Nota: Los parámetros incluyen frecuencia cardiaca, color, irritabilidad reflejan tono muscular y respiración. Actualmente se evalúa al neonato tanto al minuto 1 como a los 5 minutos del nacimiento.) Después, explicó, los científicos empezaron a aplicar diferentes mecanismos, utilizando pruebas estadísticas lo más avanzadas para ese momento en donde incluyeron modelos multivariados. El objetivo era reconocer las variables independientes, ya que muchas variables están correlacionadas; determinar el peso relativo de cada variable de influencia en el pronóstico, por ejemplo, en la predicción de infarto la edad tiene el mayor valor (50%); y por último, estandarizar el valor predictivo, para lo que se utilizó la estadística C o el área bajo la curva. "Por ejemplo, la predicción de ictus isquémicos en pacientes con fibrilación auricular es vital, es un evento catastrófico, tenemos tratamientos para prevenirlo, a pacientes tratados con anticoagulante se les previene 70% de los eventos, pero puede causar sangrado y eventos adversos en algunos individuos, entonces para eso debemos saber quién está en riesgo y lo que todos usamos en la práctica clínica es el CHA2DS2-VASc", explicó el cardiólogo. El Dr. López-Jiménez detalló que este sistema tiene una estadística C de 0,75 a 0,8 donde la proyección perfecta tendría un valor de 1,0. "Sin embargo, el valor de área bajo la curva que nos daría predecirlo tan solo adivinando sin tener ninguna información sólo preguntándole al azar a la gente sería de 0,5 entonces realmente valores de 0,75 nos ponen a la mitad entre el azar y lo perfecto, entonces no estamos cerca de lo ideal, a la mitad", enfatizó el cirujano quien reconoció que no se está detectando a los pacientes en riesgo de una manera idónea. "En las mujeres menores de 60 años es aún peor, porque 90% no sería clasificado de alto riesgo en cualquier momento en los 10 años antes del infarto, la mayor parte de las mujeres se les clasificaría como riesgo bajo o mediano", recalcó el Dr. López-Jiménez. El experto hizo una comparación hipotética con esta exactitud pronóstica a la meteorología, "imagínense que cuando una persona en la televisión está prediciendo el clima dijera que solamente 20% de las tormentas que iba a pasar, finalmente pasa y 80% no pasa o, aún peor, que ni siquiera nos avisan de la mitad de las tormentas, entonces a esa persona la hubieran corrido al primer día tras ese tipo de pronóstico; en la medicina de alguna manera hemos permitido eso", lamentó. Uno de los modelos utilizados en la inteligencia artificial se trata de utilizar en predicción de riesgo las redes neuronales profundas que pueden utilizar variables complejas, no solamente edad, sexo o colesterol, variables tabulares, sino "variables profundas como toda la información electrónica que viene de una prueba de una radiografía o todo el componente electrónico de un electrocardiograma, no la imagen sino cerca de 800 variables por cada electrocardiograma que es lo que produce en cada estudio", concluyó el Dr. López-Jiménez.