¿Podría un bot reemplazar a su médico? Según OpenAI, que lanzó ChatGPT Health esta semana, un modelo de lenguaje extenso (LLM) debería estar disponible para responder a sus preguntas e incluso examinar sus registros médicos. Sin embargo, debe evitar el diagnóstico o el tratamiento.
«Diseñado en estrecha colaboración con médicos, ChatGPT Health ayuda a las personas a asumir un papel más activo en la comprensión y gestión de su salud y bienestar, al tiempo que apoya, y no reemplaza, la atención de los profesionales clínicos», afirmó la compañía, destacando que cada semana más de 230 millones de personas en todo el mundo realizan consultas a ChatGPT relacionadas con la salud y el bienestar.
ChatGPT Health llega tras la publicación este mes de un estudio de OpenAI titulado «La IA como aliada en la atención médica». Este estudio presenta a la IA como la solución a un sistema sanitario estadounidense que, según tres de cada cinco estadounidenses, está roto.
El servicio es actualmente de acceso limitado por invitación y existe una lista de espera para aquellos que no se dejan disuadir por al menos nueve demandas pendientes contra OpenAI que alegan daños a la salud mental derivados de conversaciones con ChatGPT.
Los usuarios de ChatGPT en el Espacio Económico Europeo, Suiza y el Reino Unido no son elegibles por el momento, y la integración de registros médicos, junto con algunas aplicaciones, es exclusiva de Estados Unidos. ChatGPT Health, en la interfaz web, se presenta como una entrada de menú etiquetada como «Health» en la barra lateral izquierda. Está diseñado para permitir a los usuarios cargar registros médicos y datos de Apple Health, sugerir preguntas para hacer a los proveedores de atención médica basadas en los resultados de laboratorio importados y ofrecer recomendaciones nutricionales y de ejercicio.
OpenAI sugiere que un usuario de ChatGPT podría preguntar: «¿Puede resumir mis últimos análisis de sangre antes de mi cita?». El modelo de IA se espera que emita un conjunto de tokens más relevante de lo que podría haber hecho sin la disponibilidad de datos médicos personales, como los resultados de los análisis de sangre en este caso.
«Puede cargar fotos y archivos y utilizar la búsqueda, la investigación exhaustiva, el modo de voz y el dictado», explica OpenAI. «Cuando sea relevante, ChatGPT puede referenciar automáticamente su información conectada para proporcionar respuestas más relevantes y personalizadas».
OpenAI insiste en que puede proteger adecuadamente la información de salud sensible de los usuarios de ChatGPT mediante la compartimentación de los «recuerdos» de Health, es decir, las conversaciones anteriores con el modelo de IA. La compañía afirma que «Las conversaciones y los archivos en ChatGPT están encriptados por defecto en reposo y en tránsito como parte de nuestra arquitectura de seguridad central», y añade que Health incluye «encriptación y aislamiento específicos» para proteger las conversaciones relacionadas con la salud. «Las conversaciones en Health no se utilizan para entrenar nuestros modelos fundacionales», asegura la compañía.
The Register preguntó a OpenAI si la exención de entrenamiento se aplica a los datos de salud de los clientes cargados o compartidos con ChatGPT Health y si los socios de la compañía podrían tener acceso a las conversaciones o los datos. Un portavoz respondió que, por defecto, los datos de ChatGPT Health no se utilizan para el entrenamiento y que las aplicaciones de terceros solo pueden acceder a los datos de salud cuando un usuario ha elegido conectarlos; los datos se ponen a disposición de ChatGPT para fundamentar las respuestas al contexto del usuario. En cuanto a los socios, se nos informa de que solo se comparte la mínima cantidad de información y que están obligados por obligaciones de confidencialidad y seguridad. Y a los empleados, se les dice, se les restringe aún más el acceso a los flujos de datos del producto en función de fines legítimos de seguridad.
OpenAI actualmente no tiene planes de ofrecer anuncios en ChatGPT Health, explicó un portavoz de la compañía, pero la empresa, conocida por su extravagante gasto en centros de datos, está estudiando cómo podría integrar la publicidad en ChatGPT en general.
En cuanto a la encriptación, OpenAI puede disolverla si es necesario, ya que la compañía, y no el cliente, posee las claves de encriptación privadas. Un juez federal recientemente ratificó una orden que exige a OpenAI entregar una muestra de 20 millones de conversaciones anonimizadas de los registros de ChatGPT a organizaciones de noticias, incluida The New York Times, como parte de un caso de derechos de autor consolidado. Por lo tanto, es plausible que las conversaciones de ChatGPT Health puedan ser solicitadas en futuros procedimientos legales o exigidas por funcionarios gubernamentales.
Si bien los académicos reconocen que los modelos de IA pueden proporcionar un apoyo útil en la toma de decisiones médicas, también plantean preocupaciones sobre «preocupaciones éticas recurrentes relacionadas con la equidad, el sesgo, la no maleficencia, la transparencia y la privacidad». Por ejemplo, un estudio de caso de 2024, «Diagnóstico tardío de un ataque isquémico transitorio causado por ChatGPT», lo describe como «un caso en el que un diagnóstico erróneo de ChatGPT, en el que confió el paciente para evaluar los síntomas, provocó un retraso significativo en el tratamiento y una situación potencialmente mortal».
El estudio, de The Central European Journal of Medicine, describe cómo un hombre acudió a la sala de emergencias, preocupado por la visión doble tras recibir tratamiento por fibrilación auricular. Lo hizo en el tercer episodio de síntomas en lugar del segundo, como le había aconsejado su médico, porque «esperaba que ChatGPT proporcionara una explicación menos grave [que un derrame cerebral] para ahorrarle un viaje a la sala de emergencias». Además, encontró la explicación de su situación por parte del médico «parcialmente incomprensible» y prefirió la «valiosa, precisa y comprensible evaluación de riesgos» proporcionada por ChatGPT. El diagnóstico final fue un ataque isquémico transitorio, que implica síntomas similares a los de un derrame cerebral, aunque generalmente es menos grave. El estudio implica que la tendencia de ChatGPT a ser complaciente, común entre los modelos de IA comerciales, hace que sus respuestas sean más atractivas.
«Aunque no está diseñado específicamente para asesoramiento médico, ChatGPT respondió a todas las preguntas para satisfacción del paciente, a diferencia del médico, lo que puede atribuirse a un sesgo de satisfacción, ya que el paciente se sintió aliviado por las respuestas complacientes de ChatGPT y no buscó más aclaraciones», dice el documento. La investigación concluye sugiriendo que los modelos de IA serán más valiosos para apoyar a los profesionales de la salud sobrecargados que a los pacientes. Esto puede explicar por qué ChatGPT Health «no está destinado al diagnóstico o al tratamiento».
