Investigadores de la Universidad Metropolitana de Osaka han desarrollado un método práctico para detectar y corregir errores comunes en las etiquetas de grandes colecciones de radiografías. Al verificar automáticamente las etiquetas de la parte del cuerpo, la proyección y la rotación, su investigación mejora los modelos de aprendizaje profundo utilizados para tareas clínicas rutinarias y proyectos de investigación.
El estudio fue publicado en European Radiology.
Desafíos en el etiquetado de radiografías
Los modelos de aprendizaje profundo que utilizan radiografías de tórax han logrado avances notables en los últimos años, evolucionando para realizar tareas que son desafiantes para los humanos, como la estimación de la función cardíaca y respiratoria.
Sin embargo, la inteligencia artificial es tan buena como las imágenes que se le proporcionan. Aunque las imágenes de rayos X tomadas en hospitales se etiquetan con información, como el sitio de imagen y el método, antes de ser introducidas en el modelo de aprendizaje profundo, este proceso se realiza principalmente de forma manual, lo que significa que se producen errores, datos faltantes e inconsistencias, especialmente en hospitales con mucha actividad.
Esto se complica aún más por las imágenes con diversas rotaciones. Una radiografía puede tomarse desde la parte anterior a la posterior o viceversa, y también puede ser lateral, invertida o rotada, lo que complica aún más el conjunto de datos.
En grandes archivos de imágenes, estos pequeños errores se acumulan rápidamente hasta cientos o miles de resultados mal etiquetados.
Soluciones automatizadas y resultados
Un equipo de investigación de la Escuela de Posgrado de Medicina de la Universidad Metropolitana de Osaka, incluyendo al estudiante de posgrado Yasuhito Mitsuyama y al Profesor Daiju Ueda, se propuso mejorar la detección de datos mal etiquetados identificando automáticamente los errores antes de que afecten a los datos de entrada para los modelos de aprendizaje profundo.
El grupo desarrolló dos modelos: Xp-Bodypart-Checker, que clasifica las radiografías según la parte del cuerpo; y CXp-Projection-Rotation-Checker, que detecta la proyección y la rotación de las radiografías de tórax.
Xp‑Bodypart‑Checker alcanzó una precisión del 98,5% y CXp‑Projection‑Rotation‑Checker obtuvo precisiones del 98,5% para la proyección y del 99,3% para la rotación. Los investigadores son optimistas en que la integración de ambos en un solo modelo ofrecerá un rendimiento revolucionario en entornos clínicos.
Aunque los resultados fueron sobresalientes, el equipo espera ajustar aún más el método para su uso clínico. “Planeamos reentrenar el modelo con radiografías que fueron marcadas a pesar de estar correctamente etiquetadas, así como con aquellas que no fueron marcadas pero que en realidad estaban mal etiquetadas, para lograr una mayor precisión”, dijo Mitsuyama.
Más información
Yasuhito Mitsuyama et al, Deep learning models for radiography body-part classification and chest radiograph projection/orientation classification: a multi-institutional study, European Radiology (2025). DOI: 10.1007/s00330-025-12053-7
Citación:
Verificación automática de etiquetas: el paso que falta para que la IA médica sea confiable (24 de diciembre de 2025)
recuperado el 24 de diciembre de 2025
de https://medicalxpress.com/news/2025-12-automatic-medical-ai-reliable.html
Este documento está sujeto a derechos de autor. Aparte de cualquier uso legítimo para fines de estudio o investigación privada, ninguna
parte puede reproducirse sin el permiso escrito. El contenido se proporciona únicamente con fines informativos.
