Imágenes médicas ‘deepfake’: Solo 4 de cada 10 especialistas logran distinguir rayos X falsos creados por IA
Un equipo de investigación liderado por el doctor Michael Tozman, de la Escuela de Medicina Icahn del Mount Sinai en Nueva York, ha revelado que tanto los radiólogos como la propia inteligencia artificial (IA) tienen dificultades para identificar imágenes médicas falsas. El estudio, publicado en la revista especializada ‘Radiology’, señala que solo 4 de cada 10 especialistas fueron capaces de distinguir los rayos X reales de aquellos generados por IA.
Para la creación de estas imágenes, se utilizaron herramientas de IA generativa disponibles actualmente, como GPT, Gemini y Llama. Las radiografías falsas producidas incluyeron diversas áreas del cuerpo: tórax (vista posterior-anterior), columna cervical (lateral), manos (posterior-anterior) y columna lumbar (lateral).
A pesar de la alta precisión de estas imágenes, el estudio identificó ciertos fallos característicos de la IA, tales como aspectos poco naturales y la presencia de manchas o borrones en las imágenes generadas.
La capacidad de la IA para crear “imágenes médicas deepfake” mediante el aprendizaje automático con grandes volúmenes de datos plantea riesgos considerables. Según el informe, el uso indebido de estas imágenes podría derivar en fraudes, demandas médicas y consecuencias negativas para la salud de los pacientes.
Ante este escenario, los investigadores subrayan la importancia de implementar programas de educación y capacitación, tanto para el personal humano como para los sistemas de IA, con el fin de detectar estas falsificaciones y prevenir su mal uso.
