Cómo están impactando en la medicina los grandes modelos de inteligencia artificial

El cardiólogo, genetista e investigador en medicina digital estadounidense describió en qué punto se encuentra el uso de la IA en la atención médica y describió un panorama alentador en torno de los adelantos que ya se vislumbran

Guardar
El rumor de que GPT-4
El rumor de que GPT-4 tendría más de 100 billones de parámetros no solo es incorrecto, sino que sobrevalora notablemente uno de los componentes de los LLM. Las fichas son muy importantes. Más grande (por parámetros) no es necesariamente mejor (Getty Images)

En la revista Nature del 12 de abril, mis colegas y yo publicamos un artículo sobre las direcciones futuras para la práctica de la medicina de la inteligencia artificial (IA) generativa —también conocida como modelos de Lenguaje Extenso o Fundamentos, [que se utiliza para realizar tareas relacionadas con el procesamiento del lenguaje natural y pueden ser utilizados para comprender y responder a consultas escritas en un idioma determinado]—. Estos nuevos modelos de IA han generado una multitud de oportunidades nuevas y emocionantes en el cuidado de la salud que no teníamos antes, junto con muchos desafíos y responsabilidades. Explicaré brevemente cómo llegamos aquí y lo que nos espera.

La IA en medicina es básicamente una historia de modo único hasta la fecha. Ayuda a leer una radiografía o resonancia magnética, encuentra pólipos durante una colonoscopia, brinda orientación al paciente para una afección específica como diabetes o un diagnóstico preliminar de una lesión en la piel o el ritmo cardíaco a partir de una grabación de reloj inteligente. Hasta la fecha, se ha centrado en gran medida en la imagen, con una integración mínima o uso de entradas de texto y voz. Pero con el tiempo esa estrechez y restricción bien puede aliviarse.

Mis colegas y yo escribimos recientemente una revisión del potencial de la IA multimodal, cuando los datos de muchas fuentes se pueden ingerir y procesar. Nadie ha hecho esto todavía: reunir y extraer el conocimiento de individuos a escala, fuentes de datos que incluyen múltiples biosensores continuos, capas biológicas como el genoma y el microbioma, el medio ambiente y los registros médicos. Eso, en última instancia, no solo será alcanzable, sino que permitirá muchas oportunidades, como el entrenador de salud virtual, el hospital en el hogar y una infraestructura de gemelos digitales.

El doctor Eric Topol es
El doctor Eric Topol es cardiólogo, genetista e investigador en medicina digital estadounidense. Es el fundador y director del Scripps Research Translational Institute. Ha publicado más de 1.200 artículos revisados por pares, con más de 320.000 citas, elegido miembro de la Academia Nacional de Medicina de EE.UU (Bloomberg)

¿Cómo llegaremos allí?

Ha habido un interés sin igual en ChatGPT y modelos de lenguaje extenso (LLM). Muchos se han referido a él como un momento iPhone, con la base de usuarios más rápida jamás vista, en comparación con los 100 millones de usuarios.

Lo veo como 4 bloques de construcción principales que nos han traído hasta aquí. La IA de aprendizaje profundo se vio potenciada por una gran cantidad de unidades de procesamiento gráfico (GPUS o TPU), pero la IA generativa es la que se encuentra en dosis altas de esteroides. Esto ha creado una capacidad aparentemente insaciable para ingerir datos, en forma de tokens, con parámetros, el término que representa la cantidad de conexiones entre neuronas y la métrica de potencia informática conocida como operaciones de punto flotante (FLOPS).

En lugar del aprendizaje supervisado que impulsó en gran medida los algoritmos médicos hasta la fecha, que requiere la anotación experta de imágenes y verdades en el terreno, la capacitación con LLM está desproporcionadamente limitada en relación con las entradas masivas de datos.

La IA en medicina es
La IA en medicina es básicamente una historia de modo único hasta la fecha

Los detalles del nuevo modelo GPT-4 se dieron a conocer el 14 de marzo de 2023. Su capacidad multimodal (ahora bimodal con integración de texto e imagen) ha aumentado, “superando a los LLM existentes en una colección de tareas de procesamiento de lenguaje natural”.

Es la unión de datos multimodales un gran avance para los LLM, ya que puede ver la aceleración de cada modalidad aumentando por separado en una escala logarítmica.

¿Es mejor una IA más grande (más parámetros)?

Luego del reciente y excelente artículo de Nature de Anil Ananthaswamy que muestra la evolución acelerada (escala logarítmica) para cada dominio de datos (por parámetros), la respuesta a esa pregunta es claramente “no”. Mientras que los modelos de transformadores, tal como se utilizan con los LLM, ya han superado 1 billón de parámetros, la cantidad de tokens es excepcionalmente importante.

Estos nuevos modelos de IA
Estos nuevos modelos de IA han generado una multitud de oportunidades nuevas y emocionantes en el cuidado de la salud que no teníamos antes, junto con muchos desafíos y responsabilidades. Explicaré brevemente cómo llegamos aquí y lo que nos espera

Quizás el LLM más exitoso para el impacto transformador hasta la fecha ha sido AlphaFold de DeepMind, que predice con precisión la estructura tridimensional de las proteínas a partir de secuencias de aminoácidos. Por lo tanto, el rumor de que GPT-4 tendría más de 100 billones de parámetros no solo es incorrecto, sino que sobrevalora notablemente uno de los componentes de los LLM. Repitiéndolo de nuevo: las fichas son muy importantes. Más grande (por parámetros) no es necesariamente mejor.

De chatear con Sydney a la IA médica multimodal

Si bien la larga conversación que Kevin Roose tuvo con Sydney (la actualización del buscador de Microsoft Bing que integra ChatGPT+) pasará a la historia e incluso llegó a la portada de The New York Times, recuerde que todavía estamos en los primeros días de los LLM y prácticamente ninguno ha tenido una formación previa específica o extensa en medicina.

Hace poco escribí sobre cómo Med-PALM y ChatGPT de Google obtuvieron buenos resultados en el examen de licencia médica de EE.UU. Hoy acabamos de enterarnos de que la siguiente iteración del LLM de Google, Med-PaLM-2 obtuvo un 85%, muy por encima del informe anterior del 67% (el 60% supera el umbral de puntaje). Pero eso es usar la memoria de un chatbot para una tarea de lenguaje de modo único que se basa principalmente en la memoria y la yuxtaposición de palabras impulsada estadísticamente, descrita acertadamente como una imagen JPEG con pérdida por Ted Chiang en el New Yorker.

En la revista Nature del
En la revista Nature del 12 de abril, mis colegas y yo publicamos un artículo sobre las direcciones futuras para la práctica de la medicina de la inteligencia artificial (IA) generativa

Hay un gran avance a partir de esto para impulsar la liberación del teclado para los médicos, que recién comienza, utilizando aportes de capacitación LLM de millones o decenas de millones de registros médicos. En los próximos meses, veremos el comienzo de la IA generativa para asumir tantas tareas basadas en el lenguaje: notas de oficina sintéticas basadas en la voz (con recetas automatizadas, próximas citas, códigos de facturación, programación de laboratorios y pruebas), preautorización de las compañías de seguros, agregar y resumir el historial de un paciente a partir de la revisión de su(s) registro(s) médico(s), notas de operaciones y procedimientos, resúmenes de alta y más.

Ejemplos de Doximity [servicio de redes en línea para profesionales médicos que ofrece noticias médicas, herramientas de telesalud y colaboración de casos], docsGPT [que integra el chatbot de IA ChatGPT en tu archivo de Google Doc], y Abridge [empresa de desgrabaciones] nos están mostrando el camino.

A diferencia del desastre de la historia clínica electrónica que transformó a los médicos en empleados de datos y provocó un profundo desencanto, es posible que con el tiempo los LLM se adopten como el antídoto.

¿IA con más datos es
¿IA con más datos es mejor?, la respuesta a esa pregunta es claramente “no”

Obviamente, hay problemas importantes con los que hay que lidiar, que no solo incluyen las alucinaciones de LLM (que exigen la supervisión de humanos en el circuito), el pseudo-razonamiento, la amplificación de las preocupaciones sobre el sesgo, la privacidad y la seguridad de los datos, el dominio de la industria de la tecnología y más.

Pero sin LLM sería difícil ver cómo podríamos avanzar en el progreso de la IA multimodal. En última instancia, es la capacidad de moverse sin problemas entre imágenes médicas, texto, voz y todas las fuentes de datos (sensores, genoma, microbioma, literatura médica) lo que brindará las muchas oportunidades mencionadas.

Por eso, estoy emocionado de ver la rápida evolución de los LLM y su futura aplicación para la medicina y la atención médica.

*El doctor Eric Topol es cardiólogo, genetista e investigador en medicina digital estadounidense. Es el fundador y director del Scripps Research Translational Institute, un centro de investigación en ciencias biomédicas básicas con sede en California. Profesor de medicina molecular y vicepresidente ejecutivo de Scripps Research. Ha publicado más de 1.200 artículos revisados por pares, con más de 320.000 citas, elegido miembro de la Academia Nacional de Medicina de EE.UU. Es uno de los 10 investigadores en medicina más citados. Su principal enfoque científico ha sido la medicina individualizada utilizando herramientas genómicas, digitales y de IA. Este artículo fue publicado en la plataforma Substack.

Seguir leyendo

Guardar