Qué es la inteligencia artificial… y qué no
Ante el actual ‘tsunami’ de aplicaciones, ‘big data’, algoritmos y ‘bots’ basados en IA, se corre el riesgo de polarizar su adopción: o todo vale, o la negación por saturación.
Noviembre de 2023. Un altísimo porcentaje de las jornadas, congresos, seminarios y todo tipo de foros médicos versan o, al menos, incluyen alguna ponencia sobre inteligencia artificial (IA). Es, sin duda, el tema del momento. “Hasta los de Hidrología hablan de IA, con perdón para los hidrólogos”, dijo en uno de estos foros un experto en la materia; se dice el pecado, pero no el pecador.
“Estamos viviendo un aluvión de soluciones basadas en IA, no especialmente baratas, por lo que es necesario ser exigentes, evaluar y priorizar, tanto desde el hospital como desde, por ejemplo, la administración”, dijo Marcos Hernández, subdirector médico del Hospital Severo Ochoa, de Leganés (Madrid), durante la última Incubadora de Ideas del Hospital Clínico San Carlos, de Madrid, dedicada a la Inteligencia Artificial Generativa en Sanidad.
Y es que, ¿sabemos realmente qué es la IA? ¿Para qué sirve? Es más, ¿sirve para todo? “Si pudiéramos viajar en el tiempo y llevásemos una calculadora a la Roma clásica, pensarían que es inteligencia artificial. O si llevásemos el PC más básico a principios del siglo XX. Hasta ahora, la IA era cada reto tecnológico que, cuando se alcanzaba, dejaba de ser IA”, afirma Ignacio Hernández Medrano, neurólogo, fundador y director médico de Savana, empresa que lleva casi diez años creando soluciones de IA para hospitales y servicios de salud.
“IA hay desde los años 50, pero ahora se habla tanto de ella porque hay una definición de lo que es y por el auge de la IA generativa. Además, cada vez que algo se pone de moda, todo el mundo quiere subirse al carro, para después caer por su propio peso”, explica Roberto Menéndez, digital CEO de Grupo ADD-Futura Vive, empresa especializada en el desarrollo de robots humanoides. Por ello, recomienda a los hospitales y servicios sanitarios “contar con expertos que puedan asesorar y distinguir qué sirve y qué no”.
Otro factor importante para este auge es el pasado reciente: “Estamos asistiendo a una auténtica revolución en el desarrollo de la Medicina de manos de la IA. Hemos sido testigos de un antes y después con la pandemia de covid-19 en relación con la expansión de lo digital en nuestras vidas, que junto con la disrupción que ha traído la accesibilidad de ChatGPT, ha conformado un contexto histórico que estáfacilitando estos cambios tecnológicos a velocidad de vértigo”, sostiene José Antonio Trujillo, vicepresidente del Colegio de Médicos de Málaga y autor del libro Guía básica de Inteligencia Médica Artificial.
Aprender como un bebé
Aunque reconoce que algo arbitrariamente, Hernández Medrano afirma que hoy “hemos decidido que se considera IA el aprendizaje automático (machine learning)”, posible gracias a la disponibilidad de ingentes cantidades de datos (big data, concepto que está, afirma, quedando obsoleto frente a los data lakes).
Esta IA, denominada discriminativa, se basa “en identificar patrones, frente a la programación tradicional por reglas”. El aprendizaje automático, así, viene a ser como la forma en que aprende un bebé: una vez que entiende un concepto (por ejemplo, mesa), es capaz de identificarlo (aunque esté frente a una mesa que no ha visto nunca).
Por tanto, la IA tiene, por definición, capacidad de aprender al modo humano natural, quedando fuera de la ecuación aquellos sistemas tradicionales de alertas que detectan patrones basándose en reglas fijas, o sea, asumiendo que una mesa ha de tener un tablero y cuatro patas.
Su evolución se ha desarrollado por capas, desde lo más sencillo a lo más complejo, asentándose sobre lagos de datos (data lakes) tipo cebolla: imágenes, datos estructurados (como los de laboratorio o las clasificaciones CIE), el procesamiento de lenguaje natural, la telemetría (sensores y wearables), las ómicas y, por último, las variables ambientales. “Todos estamos evolucionando más o menos igual, intentando crear ese data lake sanitario definitivo”, relata Hernández Medrano.
Lo que dice ChatGPT
Y ahora que parece que ese ámbito está controlado, llega la IA generativa, que “se refiere a un tipo de inteligencia artificial (IA) que se centra en la creación de contenido original, como imágenes, música, texto o incluso videos. Utiliza modelos de IA para generar datos que imitan o se asemejan a datos reales, aunque no se basan directamente en datos existentes”, definición que, como no podría ser de otra manera, ha sido generada por Chat-GPT, que se considera a sí mismo mucho más que un bot: “Puedo responder preguntas, generar texto y realizar tareas basadas en el aprendizaje automático, pero mi enfoque es más amplio que simplemente la generación de contenido”, dice.
Como si de un Dr. Frankenstein se tratara, la IA generativa toma modelos reales -o trozos de modelos reales- para crear algo nuevo y con la capacidad para pensar de un supercomputador: según relata Trujillo, un equipo de investigadores médicos liderado por el médico y científico informático de la Universidad de Harvard Isaac Kohane, puso a prueba a ChatGPT-4 en el United States Medical Licensing Exam, el programa de pruebas estandarizadas para obtener la licencia para ejercer la medicina en Estados Unidos. Tiene tres fases que cubren todos los temas del fondo de conocimientos de los médicos, desde las ciencias básicas hasta el razonamiento clínico, la gestión médica y la bioética. “Para sorpresa de los investigadores, el modelo de IA resultó ser en muchos casos mejor que algunos médicos con licencia. De acuerdo con su estudio, GPT-4 logró responder correctamente a las preguntas de los exámenes más del 90 % de las veces”.
Afortunadamente, no se le concedió la licencia para ejercer la medicina. Y es que no podemos olvidar que el cerebro de una IA piensa en ceros y unos, y que su memoria, aunque casi infinita, carece de un razonamiento real: “Estos desarrollos pueden ser muy útiles para trabajos repetitivos o de menos valor, pudiendo interactuar con los usuarios -pacientes y profesionales- con un lenguaje natural, como si se hablara con una persona, pero solo para contribuir a que el médico se dedique a lo que tiene que dedicarse”, afirma Menéndez, cuya empresa ha desarrollado un chatbot con IA generativa que ayuda al triaje en urgencias.
Igual de rápido (o casi) que ha penetrado en la sociedad (los profesores han vuelto a hacer exámenes ante la dificultad de saber si los trabajos los hacen los alumnos o una IA) “la inteligencia artificial generativa penetrará en los hospitales; es muy buena para tareas de documentación, por ejemplo”, asevera Hernández Medrano.
Sin embargo, lanza un aviso: “El riesgo es pensar que es tan fiable como la discriminativa, a la que estamos más habituados”. El problema de la IA generativa es que, al tener la capacidad de crear, no pueden validarse sus resultados, mientras que los algoritmos de machine learning son mucho más cuadriculados.
De hecho, el CMO de Savana cree que “el actual cambio de paradigma de la IA en medicina es la validación de los algoritmos como si se tratara de fármacos”. La FDA estadounidense ya lo hace así, y tiene más de 250 algoritmos validados a los que se ha exigido un ensayo clínico. “En Europa aún se pide solo el marcado CE, que se otorga con datos retrospectivos, pero ya hay países que están pidiendo ensayos clínicos para validar la eficacia y la seguridad de los sistemas”.
¿Y la privacidad? Hernández Medrano se muestra contundente: “Un dato anonimizado ya no es un dato personal. Lo no ético sería no usarlo”. JGS. SJD