Con cientos de millones de personas recurriendo a los “chatbots” en busca de consejos, era solo cuestión de tiempo antes de que las empresas de tecnología comenzaran a ofrecer programas diseñados específicamente para responder preguntas de salud.

En enero, OpenAI presentó ChatGPT Health, una nueva versión de su “chatbot” que, según la compañía, puede analizar los historiales médicos de los usuarios, aplicaciones de bienestar y datos de dispositivos “wearables” para responder preguntas médicas y de salud. Actualmente, hay una lista de espera para el programa.

Anthropic, una empresa rival de IA, ofrece funciones similares para algunos usuarios de su “chatbot” Claude.

Ambas compañías afirman que sus programas, conocidos como modelos de lenguaje extenso, no sustituyen la atención profesional y no deberían utilizarse para diagnosticar afecciones médicas. En cambio, afirman que los “chatbots” pueden resumir y explicar resultados de pruebas complejas, ayudar a prepararse para una consulta médica o analizar tendencias de salud importantes ocultas en los historiales médicos y las métricas de la aplicación.

Aquí hay algunas cosas a considerar antes de hablar con un “chatbot” sobre su salud:

Los “chatbots” pueden ofrecer información más personalizada que una búsqueda de Google.

Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los ven como una mejora respecto del status quo.

Las plataformas de IA no son perfectas (a veces pueden alucinar o brindar malos consejos ), pero es más probable que la información que producen sea personalizada y específica que la que los pacientes podrían encontrar a través de una búsqueda en Google.

“La alternativa a menudo es no hacer nada o que el paciente improvise”, dijo el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. “Por eso creo que si se usan estas herramientas con responsabilidad se puede obtener información útil”.

Una ventaja de los últimos “chatbots” es que responden a las preguntas de los usuarios con el contexto de su historial médico, incluidas recetas, edad y notas del médico.

Incluso si no le ha dado a la IA acceso a su información médica, Wachter y otros recomiendan dar a los “chatbots” tantos detalles como sea posible para mejorar las respuestas.

Si tienes síntomas preocupantes, olvida la IA

Wachter y otros enfatizan que hay situaciones en las que las personas deberían evitar el “chatbot” y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o dolor de cabeza intenso podrían indicar una emergencia médica.

Incluso en situaciones menos urgentes, los pacientes y los médicos deberían abordar los programas de IA con “un grado de saludable escepticismo”, afirmó el Dr. Lloyd Minor de la Universidad de Stanford.

“Si estás hablando de una decisión médica importante, o incluso de una decisión más pequeña sobre tu salud, nunca deberías confiar únicamente en lo que obtienes de un modelo de lenguaje amplio”, dijo Minor, quien es el decano de la facultad de medicina de Stanford.

Ten en cuenta tu privacidad antes de cargar cualquier dato de salud

Muchos de los beneficios que ofrecen los “bots” de IA se derivan de que los usuarios compartan información médica personal. Sin embargo, es importante comprender que cualquier información compartida con una empresa de IA no está protegida por la ley federal de privacidad que normalmente rige la información médica confidencial.

La ley HIPAA permite multas e incluso penas de prisión para médicos, hospitales, aseguradoras u otros servicios de salud que divulguen historiales médicos. Sin embargo, la ley no aplica a las empresas que diseñan “chatbots”.

“Cuando alguien sube su historial médico a un modelo de lenguaje extenso es muy diferente a entregárselo a un médico nuevo”, dijo Minor. “Los consumidores deben comprender que se aplican estándares de privacidad completamente diferentes”.

Tanto OpenAI como Anthropic afirman que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben aceptar compartir su información y pueden desconectarse en cualquier momento.

Las pruebas muestran que los chatbots pueden tener problemas

A pesar del entusiasmo en torno a la IA, las pruebas independientes de la tecnología están en sus primeras etapas. Estudios preliminares sugieren que programas como ChatGPT pueden aprobar exámenes médicos de alto nivel, pero a menudo presentan dificultades al interactuar con humanos.

Un estudio realizado recientemente por la Universidad de Oxford con 1,300 participantes descubrió que las personas que utilizan “chatbots” de inteligencia artificial para investigar condiciones de salud hipotéticas no toman mejores decisiones que las personas que utilizan búsquedas en línea o su criterio personal.

Los “chatbots” de IA a los que se les presentaron escenarios médicos en un formato escrito completo identificaron correctamente la condición subyacente el 95% de las veces.

“Ese no fue el problema”, dijo el autor principal, Adam Mahdi, del Oxford Internet Institute. “El punto donde todo se vino abajo fue durante la interacción con los participantes reales”.

Mahdi y su equipo detectaron varios problemas de comunicación. Con frecuencia, las personas no proporcionaban a los “chatbots” la información necesaria para identificar correctamente el problema de salud. Por otro lado, los sistemas de IA solían responder con una combinación de información positiva y negativa, y los usuarios tenían dificultades para distinguir entre ambas.

El estudio, realizado en 2024, no utilizó las últimas versiones de “chatbot”, incluidas nuevas ofertas como ChatGPT Health.