Home NoticiasIA en Medicina: Riesgos, Errores y el Debate en Hospitales

IA en Medicina: Riesgos, Errores y el Debate en Hospitales

by Editora de Noticias

La tensión sobre el uso de la inteligencia artificial en el ámbito médico ha llegado a un punto crítico, tal como se refleja en la serie de televisión “The Pitt”. En la segunda temporada de este drama médico galardonado con cinco premios Emmy, la Dra. Baran Al-Hashimi (interpretada por Sepideh Moafi), una nueva jefa de servicio, busca optimizar la eficiencia del Centro Médico Traumático de Pittsburgh. Su propuesta a un equipo escéptico es la implementación de sistemas de IA que podrían reducir el tiempo dedicado a la documentación clínica en un 80%, permitiendo a los médicos dedicar más tiempo a la atención del paciente y a su vida personal.

Sin embargo, en el sexto episodio, los médicos descubren que la herramienta de IA ha inventado detalles falsos en el historial de un paciente e incluso confundió “urología” con “neurología”. A pesar de este error, la Dra. Al-Hashimi defiende la tecnología, argumentando que una tasa de error del 2% sigue siendo mejor que la dictado tradicional, aunque reconoce la necesidad de una revisión exhaustiva. Esta postura choca con la indignación de la Dra. Campbell (Monica Bhatnagar), especialista en medicina interna, quien expresa su frustración: “No me importa si quieren usar robots aquí, necesito información precisa en los registros médicos”.

Esta trama, como muchos otros temas abordados en la serie, es un reflejo de los debates que se están produciendo en hospitales de todo el país. Según una encuesta realizada en 2025 por la Asociación Médica Americana, dos tercios de los médicos utilizan la IA en algún grado. Si bien algunos la consideran invaluable para la atención al paciente y la reducción del agotamiento profesional, otros profesionales de la salud advierten que su implementación es demasiado rápida y que comete demasiados errores para un campo tan sensible.

La IA como apoyo en la documentación médica

leer más  Venezuela: Trump considera cerrar el espacio aéreo y prepara acciones terrestres

En “The Pitt”, la IA se presenta inicialmente como una herramienta para la documentación clínica, un proceso que consume gran parte del tiempo de los médicos, obligándolos a quedarse horas después de su jornada laboral para completarlo. En los últimos años, los hospitales han implementado “escribas de IA ambientales”, que escuchan las conversaciones entre médicos y pacientes y luego resumen la información para los registros clínicos.

El Dr. Murali Doraiswamy, médico y profesor de la Escuela de Medicina de la Universidad de Duke, explica que estos escribas de IA permiten a los médicos concentrarse en el paciente en lugar de tomar notas durante las consultas. Sin embargo, señala que la herramienta solo ahorra uno o dos minutos por consulta, ya que los médicos deben dedicar tiempo a editar el contenido generado por la IA, tal como lo menciona la Dra. Al-Hashimi en “The Pitt”. “No reduce significativamente lo que llamamos ‘tiempo de pijama’”, afirma, “pero en general, es una mejora y la esperanza es que siga mejorando”.

Algunas herramientas de documentación con IA van aún más allá. El año pasado, Presbyterian Healthcare Services en Nuevo México, probó un asistente de IA llamado GW RhythmX, que puede proporcionar a los médicos un resumen del historial médico de sus próximos pacientes, ahorrándoles la necesidad de revisar meses de registros y resultados de laboratorio antes de las citas.

Lori Walker, Directora de Información Médica de Presbyterian, explica que la herramienta RhythmX también puede ofrecer soluciones a problemas complejos de los pacientes. Por ejemplo, relata el caso de un paciente ingresado por una herida infectada, pero alérgico a muchos antibióticos que podrían tratar la bacteria. Tradicionalmente, un médico consultaría a un especialista en enfermedades infecciosas, un proceso que puede tardar entre 24 y 48 horas. En cambio, el médico consultó al chatbot y recibió una receta eficaz de inmediato.

Sudheesha Perera, residente de segundo año en la Escuela de Medicina de Yale, afirma que él y sus colegas utilizan OpenEvidence, un chatbot de modelo de lenguaje grande entrenado con literatura médica verificada, de forma casi diaria. “Si tengo un paciente con una infección, puedo preguntarle: ‘He elegido este medicamento por esta razón. ¿Cuáles son las alternativas?’”, explica Perera, destacando que es más rápido que usar Google o un libro de texto médico.

leer más  Marchand: Del amor al odio en la NHL

Perera está colaborando con Yale en la creación de un programa de formación en IA que asesore a los residentes sobre las mejores prácticas para el uso de esta tecnología. Además, en el Laboratorio de Ciencia de Datos Cardiovasculares de Yale, utiliza Claude Code y Gemini para ayudarle a escribir código para el análisis de datos. “Puedo simplemente describírselo en lenguaje sencillo: ‘Así son mis datos y esto es lo que quiero’. Eso realmente cambia las reglas del juego para lograr resultados”.

Errores y riesgos

Sin embargo, persisten numerosos temores y riesgos. Al igual que en “The Pitt”, las herramientas de IA han cometido errores en entornos médicos reales. Michelle Gutierrez Vo, enfermera residente y presidenta de la Asociación de Enfermeras y el Comité Nacional de Organización de Enfermeras de California, relata que hace tres años, su hospital intentó implementar una nueva herramienta para reemplazar el juicio de los gestores de casos. Pero cuando probaron la herramienta, manejó mal muchos casos, incluso sugiriendo que un paciente con cáncer, ingresado para un mes de quimioterapia, fuera dado de alta en dos o tres días.

“Hemos demostrado una y otra vez que la implementación o el uso de la IA es en realidad peor y más costoso”, afirma. Una encuesta de 2024 reveló que dos tercios de las enfermeras registradas sindicalizadas consideraban que la IA las socavaba y amenazaba la seguridad del paciente.

Gutierrez Vo teme que la IA se esté utilizando simplemente para reducir costos y aumentar las ganancias, obligando a un personal ya reducido a trabajar aún más duro. Esta preocupación se hace eco del protagonista de “The Pitt”, el Dr. Robby (Noah Wyle): “Nos hará más eficientes, pero los hospitales esperarán que tratemos a más pacientes sin un salario adicional”, dice.

leer más  Desempleo Wisconsin: Bajan las solicitudes iniciales

Mientras tanto, existe una gran preocupación por la pérdida de habilidades: que incluso si la IA ayuda a los médicos ahora, perjudicará su conocimiento intrínseco y su capacidad de toma de decisiones en momentos de mayor necesidad. Esta idea se explora al final del episodio de esta semana de “The Pitt”: un ciberataque obliga al hospital a operar completamente de forma analógica y a depender únicamente de sus habilidades y formación.

Este escenario resuena con Perera. “Cuando el paciente se está deteriorando frente a tus ojos, necesitas tener el conocimiento en tu mente. Una herramienta de IA es demasiado lenta”, afirma Perera. “Es muy cierto que al final del día, necesitamos practicar sin herramientas”.

Perera está especialmente preocupado por que si una nueva generación de médicos se vuelve demasiado dependiente de las herramientas de IA sin adquirir primero las habilidades necesarias, todo el campo médico podría verse gravemente perjudicado. “El mismo chico que nunca escribió un ensayo universitario y simplemente usó ChatGPT podría convertirse en el médico que nunca escribió una evaluación y un plan críticos y simplemente usa OpenEvidence”, dice Perera. “Enseñar a los residentes de medicina cómo ser buenos administradores de estas herramientas, en el momento adecuado de su formación, será importante”.

Doraiswamy espera que las herramientas se construyan de manera que estén diseñadas para apoyar el juicio de los médicos en lugar de reemplazarlo. “Cuanto más podamos hacer que la IA haga que los médicos hagan las preguntas correctas, en lugar de simplemente tomar la respuesta automáticamente, mejor será”, afirma. “Queremos algo que nos haga pensar”.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.