Elon Musk pidió a los usuarios de X subir sus datos médicos. Algunos accedieron

The New York Times: Edición Español

Guardar

Artificial IntelligenceSocial MediaMedicine and HealthPrivacyX (Formerly Twitter)Musk, ElonContent Type: Service

Los expertos en privacidad se alarmaron cuando la gente empezó a introducir sus imágenes médicas en la herramienta de inteligencia artificial Grok.

En las últimas semanas, usuarios de X han estado enviando radiografías, resonancias magnéticas, tomografías computarizadas y otras imágenes médicas a Grok, el chatbot de inteligencia artificial de la plataforma, pidiendo diagnósticos. El motivo: Elon Musk, propietario de X, lo sugirió.

"Todavía está en una fase inicial, pero ya es bastante preciso y llegará a ser extremadamente bueno", dijo Musk en una publicación. La esperanza es que, si un número suficiente de usuarios alimenta a la IA con sus imágenes médicas, esta acabe siendo capaz de interpretarlas con precisión. Los pacientes podrían obtener resultados más rápidos sin tener que esperar un mensaje a través de su portal médico, o utilizar Grok como segunda opinión.

Algunos usuarios han compartido los errores de Grok, como una fractura de clavícula que se confundió con una luxación de hombro. Otros lo alaban: un usuario escribió junto a un escáner cerebral: "Lo hice examinar mi tumor cerebral, no está nada mal". Algunos médicos incluso le han seguido el juego, curiosos por comprobar si un chatbot podría confirmar sus propios hallazgos.

Aunque ni Gemini, de Google, ni ChatGPT, de OpenAI, han hecho un llamamiento público similar, los usuarios también pueden enviar imágenes médicas a estas herramientas.

La decisión de compartir información tan sensible como los resultados de una colonoscopia con un chatbot de inteligencia artificial ha alarmado a algunos expertos en privacidad médica.

"Se trata de información muy personal, y no se sabe exactamente qué va a hacer Grok con ella", dijo Bradley Malin, profesor de informática biomédica en la Universidad de Vanderbilt, quien ha estudiado el aprendizaje automático en la atención sanitaria.

Consecuencias potenciales de compartir información sanitaria

Cuando un usuario comparte su información médica con los médicos o en un portal para pacientes, está protegido por la Ley de Responsabilidad y Movilidad del Seguro de Salud, o HIPAA por sus siglas en inglés (Health Insurance Portability and Accountability Act), la ley federal que protege su información médica personal para que no se comparta sin su consentimiento. Pero solo se aplica a determinadas entidades, como consultorios médicos, hospitales y aseguradoras médicas, así como a algunas empresas con las que trabajan.

En otras palabras, lo que se publique en una cuenta de redes sociales o en cualquier otro sitio no está sujeto a la HIPAA. Es como decir que ha cometido un delito a su abogado o decírselo a su paseador de perros: uno está sujeto al secreto profesional y el otro puede informar a todo el vecindario.

En cambio, cuando las empresas tecnológicas se asocian con un hospital para obtener datos, existen acuerdos detallados sobre cómo se almacenan, comparten y utilizan, dijo Malin.

"Publicar información personal en Grok es más como: '¡Wiii! Lancemos estos datos y esperemos que la empresa haga lo que yo quiero que haga'", dijo Malin.

X no respondió a la solicitud de comentarios. En su política de privacidad, la compañía ha dicho que no venderá los datos de los usuarios a terceros, pero sí los comparte con "empresas relacionadas". (A pesar de la invitación de Musk a compartir imágenes médicas, la política también dice que X no pretende recopilar información personal sensible, incluidos datos sanitarios).

Matthew McCoy, profesor adjunto de Ética Médica y Política Sanitaria de la Universidad de Pensilvania, señaló que es posible que existan unos límites muy claros en torno a la información sanitaria que se sube a Grok que la empresa no ha descrito públicamente. "Pero como usuario individual, ¿me sentiría cómodo aportando datos sanitarios? En absoluto".

Es importante recordar que algunas partes de la huella en internet se comparten y se venden: qué libros se compran, por ejemplo, o cuánto tiempo se pasa en un sitio web. Todo esto son piezas de un rompecabezas que dan forma a una imagen del usuario que las empresas pueden utilizar para diversos fines, como la mercadotecnia dirigida.

Hay que considerar la posibilidad de que una tomografía PET que muestre los primeros signos de la enfermedad de Alzheimer pase a formar parte de una huella en Internet, donde podría encontrarla futuros empleadores, compañías de seguros o incluso una comunidad de propietarios.

Leyes como la Ley de Estadounidenses con Discapacidades (Americans with Disabilities Act) y la Ley de No Discriminación por Información Genética (Genetic Information Nondiscrimination Act) pueden ofrecer protección contra la discriminación basada en determinados factores de salud, pero existen excepciones para algunas entidades, como los seguros de dependencia y los planes de seguros de vida. Y los expertos señalan que siguen existiendo otras formas de discriminación relacionada con la salud, aunque no sean legales.

El riesgo de obtener resultados inexactos

Las respuestas imperfectas pueden ser aceptables para quienes se limitan a experimentar con la herramienta. Pero obtener información sanitaria errónea podría llevar a realizar pruebas u otros cuidados costosos que en realidad no se necesitan, dijo Suchi Saria, directora del laboratorio de aprendizaje automático y atención sanitaria de la Universidad Johns Hopkins.

Entrenar un modelo de IA para obtener resultados precisos sobre la salud de una persona requiere datos diversos y de alta calidad, así como profundos conocimientos en medicina, tecnología, diseño de productos y otros campos, dijo Saria, quien también es fundadora de Bayesian Health, una empresa que desarrolla herramientas de IA para entornos sanitarios. Cualquier cosa menos que eso, dijo, "es un poco como un químico aficionado mezclando ingredientes en el fregadero de la cocina".

Aun así, la IA es prometedora para mejorar la experiencia de los pacientes y los resultados de la atención sanitaria. Los modelos de IA ya son capaces de leer mamografías y analizar datos de pacientes para encontrar candidatos para ensayos clínicos.

Algunos curiosos pueden saber los riesgos para la privacidad y aun así sentirse cómodos cargando sus datos para apoyar esa misión. Malin llama a esta práctica "altruismo informativo". "Si crees firmemente que la información debe estar ahí fuera, aunque no tengas protecciones, adelante", dijo. "Pero que el comprador tenga cuidado".

Guardar