WASHINGTON (AP) — A medida que cientos de millones de personas recurren a los chatbots para obtener consejos, era cuestión de tiempo antes de que las empresas tecnológicas comenzaran a ofrecer programas diseñados específicamente para responder preguntas sobre la salud. En enero, OpenAI introdujo ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar los registros médicos de los usuarios, las aplicaciones de bienestar y los datos de dispositivos portátiles para responder preguntas sobre salud y medicina. Actualmente, existe una lista de espera para el programa. Anthropic, una empresa rival de inteligencia artificial, ofrece características similares a algunos usuarios de su chatbot Claude.
Ambas compañías afirman que sus programas, conocidos como modelos de lenguaje grandes, no son un sustituto de la atención profesional y no deben utilizarse para diagnosticar afecciones médicas. En cambio, señalan que los chatbots pueden resumir y explicar resultados de pruebas complicados, ayudar a prepararse para una visita al médico o analizar tendencias de salud importantes ocultas en los registros médicos y las métricas de las aplicaciones.
Aquí hay algunas cosas a considerar antes de hablar con un chatbot sobre su salud:
Los chatbots pueden ofrecer información más personalizada que una búsqueda en Google. Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los ven como una mejora con respecto a la situación actual. Las plataformas de inteligencia artificial no son perfectas, a veces pueden “alucinar” o proporcionar consejos erróneos, pero la información que producen es más probable que sea personalizada y específica que lo que los pacientes podrían encontrar a través de una búsqueda en Google.
“La alternativa a menudo es nada, o que el paciente lo haga por su cuenta”, dijo el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California, San Francisco. “Y por lo tanto, creo que si utiliza estas herramientas de manera responsable, puede obtener información útil”.
Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios con información contextual de su historial médico, incluyendo recetas, edad y notas del médico. Incluso si no ha proporcionado a la IA acceso a su información médica, Wachter y otros recomiendan proporcionar a los chatbots la mayor cantidad de detalles posible para mejorar las respuestas.
Si tiene síntomas preocupantes, omita la IA. Wachter y otros enfatizan que hay situaciones en las que las personas deben omitir el chatbot y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o un dolor de cabeza intenso podrían indicar una emergencia médica.
Incluso en situaciones menos urgentes, los pacientes y los médicos deben abordar los programas de IA con “un grado de escepticismo saludable”, dijo el Dr. Lloyd Minor de la Universidad de Stanford. “Si está hablando de una decisión médica importante, o incluso de una decisión menor sobre su salud, nunca debe basarse únicamente en lo que obtiene de un modelo de lenguaje grande”, dijo Minor, quien es el decano de la facultad de medicina de Stanford.
Considere su privacidad antes de cargar cualquier dato de salud. Muchos de los beneficios que ofrecen los bots de IA provienen de que los usuarios compartan información médica personal. Pero es importante comprender que cualquier cosa que se comparta con una empresa de IA no está protegida por la ley federal de privacidad que normalmente rige la información médica confidencial. Conocida comúnmente como HIPAA, la ley permite multas e incluso penas de prisión para médicos, hospitales, aseguradoras u otros servicios de salud que divulguen registros médicos. Pero la ley no se aplica a las empresas que diseñan chatbots.
“Cuando alguien carga su historial médico en un modelo de lenguaje grande, es muy diferente a entregárselo a un nuevo médico”, dijo Minor. “Los consumidores deben comprender que existen estándares de privacidad completamente diferentes”.
Tanto OpenAI como Anthropic afirman que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones de privacidad adicionales. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben optar por compartir su información y pueden desconectarse en cualquier momento.
Las pruebas muestran que los chatbots pueden tropezar. A pesar del entusiasmo en torno a la IA, las pruebas independientes de la tecnología están en sus primeras etapas. Los primeros estudios sugieren que programas como ChatGPT pueden aprobar exámenes médicos de alto nivel, pero a menudo tienen dificultades al interactuar con humanos.
Un estudio con 1.300 participantes de la Universidad de Oxford encontró recientemente que las personas que utilizan chatbots de IA para investigar afecciones de salud hipotéticas no toman mejores decisiones que las personas que utilizan búsquedas en línea o su propio juicio. Los chatbots de IA a los que se les presentaron escenarios médicos en una forma escrita completa identificaron correctamente la afección subyacente el 95% de las veces. “Ese no era el problema”, dijo el autor principal Adam Mahdi del Oxford Internet Institute. “El lugar donde las cosas se desmoronaron fue durante la interacción con los participantes reales”.
Mahdi y su equipo encontraron varios problemas de comunicación. A menudo, las personas no proporcionaron a los chatbots la información necesaria para identificar correctamente el problema de salud. Por el contrario, los sistemas de IA a menudo respondieron con una combinación de información buena y mala, y los usuarios tuvieron dificultades para distinguir entre las dos.
El estudio, realizado en 2024, no utilizó las últimas versiones de chatbot, incluidas las nuevas ofertas como ChatGPT Health.
Una segunda opinión de la IA puede ser útil. La capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área en la que Wachter ve margen de mejora. “Creo que ahí es cuando esto será realmente bueno, cuando las herramientas se vuelvan un poco más parecidas a las de un médico en la forma en que van y vienen” con los pacientes, dijo Wachter.
Por ahora, una forma de sentirse más seguro con la información que está recibiendo es consultar varios chatbots, de forma similar a obtener una segunda opinión de otro médico. “A veces pongo información en ChatGPT y en Gemini”, dijo Wachter, refiriéndose a la herramienta de IA de Google. “Y cuando ambos están de acuerdo, me siento un poco más seguro de que esa es la respuesta correcta”.
