Home SaludChatGPT y Salud: Riesgos de Autodiagnóstico con IA

ChatGPT y Salud: Riesgos de Autodiagnóstico con IA

by Editora de Salud

Buscar un diagnóstico en internet es una práctica común, al igual que autodiagnosticarse enfermedades basándose en foros en línea. Sin embargo, cada vez más personas, especialmente los jóvenes, recurren directamente a la inteligencia artificial como ChatGPT en busca de consejo médico, buscando respuestas rápidas y seguras a sus inquietudes.

Un estudio reciente realizado por investigadores de la Icahn School of Medicine at Mount Sinai Medical School en Nueva York, publicado en la revista científica Nature Medicine, advierte sobre la necesidad de precaución. La investigación revela que la herramienta de OpenAI puede proporcionar recomendaciones incorrectas en numerosos casos, especialmente en situaciones de emergencia médica.

Para llegar a esta conclusión, los investigadores sometieron a ChatGPT a sesenta escenarios médicos que abarcaron veintiuna especialidades y diferentes niveles de urgencia. Se analizaron casi 960 interacciones, variando los perfiles de los pacientes ficticios, sus situaciones sociales y la forma en que describían sus síntomas.

ChatGPT solo proporcionó consejos adecuados en el 48,4% de las urgencias médicas y en el 35,2% de las situaciones no urgentes. En otras palabras, la herramienta se equivoca más de una vez cada dos cuando la situación es crítica. En algunos casos, incluso recomendó una simple observación durante veinticuatro a cuarenta y ocho horas cuando los pacientes deberían haber sido enviados inmediatamente a urgencias.

Cuando la IA no detecta las señales de alerta

Entre los errores más preocupantes, los investigadores observaron que la IA subestimaba las crisis graves de asma o las complicaciones serias de la diabetes, situaciones potencialmente mortales si no se tratan rápidamente.

leer más  Radiología Intervencionista Avanzada: Nuevo CT Hospitalario

La herramienta también mostró limitaciones al identificar señales de angustia psicológica. En varios escenarios que sugerían pensamientos suicidas, el mensaje de ayuda destinado a dirigir a una línea de asistencia solo se activó en una minoría de los casos.

El investigador Girish Nadkarni, coautor del estudio, insta a la prudencia: “ChatGPT funciona bien para algunas emergencias evidentes, pero tiene dificultades cuando el peligro es más sutil”. El problema es que precisamente estas situaciones requieren un juicio médico fiable.

Más allá de las limitaciones de una tecnología reciente y mejorable, este estudio plantea la cuestión de la confianza casi ciega que estamos dispuestos a depositar en la IA. El tono seguro de los grandes modelos de lenguaje y su forma de formular respuestas claras pueden dar la impresión de experiencia, cuando sus respuestas se basan únicamente en probabilidades y no en un diagnóstico real.

En un contexto en el que muchos jóvenes ya utilizan estas herramientas para informarse sobre su salud, el mensaje es claro: la inteligencia artificial puede ayudar a comprender un síntoma, pero nunca debe reemplazar a un médico.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.