ChatGPT Salud: Fallos graves en el triage médico según estudio

by Editora de Salud

En enero de 2026, OpenAI lanzó ChatGPT Health, una herramienta de salud para el consumidor que rápidamente alcanzó a millones de usuarios. Un reciente estudio publicado en Nature sometió a esta herramienta a una prueba de estrés estructurada, evaluando sus recomendaciones de triaje a través de 60 escenarios clínicos elaborados por profesionales médicos, abarcando 21 áreas clínicas bajo 16 condiciones diferentes, lo que resultó en un total de 960 respuestas.

Los resultados revelaron un patrón en forma de U invertida en el rendimiento, con los fallos más peligrosos concentrados en los extremos clínicos: presentaciones no urgentes (35%) y condiciones de emergencia (48%). En el caso de emergencias consideradas de referencia, el sistema subestimó la gravedad en el 52% de los casos, recomendando una evaluación en un plazo de 24 a 48 horas para pacientes con cetoacidosis diabética y riesgo inminente de insuficiencia respiratoria, en lugar de dirigirlos al servicio de urgencias. Sin embargo, el sistema identificó correctamente emergencias clásicas como accidentes cerebrovasculares y anafilaxia.

El estudio también encontró que las recomendaciones de triaje se modificaban significativamente cuando familiares o amigos minimizaban los síntomas del paciente (sesgo de anclaje), especialmente en casos límite (OR 11.7, IC del 95% 3.7-36.6), tendiendo a sugerir una atención menos urgente. Los mensajes de intervención en crisis se activaron de manera impredecible en presentaciones de ideación suicida, activándose con mayor frecuencia cuando los pacientes no describían un método específico. La raza, el género y las barreras de acceso a la atención del paciente no mostraron efectos significativos, aunque los intervalos de confianza no descartaron diferencias clínicamente relevantes.

leer más  Especialidades Médicas

Las conclusiones del estudio señalan la omisión de emergencias de alto riesgo y la activación inconsistente de medidas de seguridad en crisis, lo que plantea preocupaciones de seguridad que requieren validación prospectiva antes de la implementación a gran escala de sistemas de triaje basados en inteligencia artificial.

Continue reading

You may also like

Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.