En los últimos años, se ha observado una creciente adopción de modelos de inteligencia artificial (IA) en el campo de la informática forense digital (DF), especialmente modelos de aprendizaje profundo (DL). Si bien estos modelos asisten a los expertos en DF, su falta de transparencia genera preocupaciones sobre su fiabilidad. Aunque la Inteligencia Artificial Explicable (XAI) ha avanzado, los métodos actuales presentan limitaciones para las aplicaciones en DF.
Las técnicas visuales de XAI existentes no ofrecen la claridad suficiente para tareas complejas de análisis forense de imágenes, como la Identificación de la Cámara Fuente (SCI), ni proporcionan mecanismos para evaluar si la decisión de un modelo es correcta. La mayoría de los métodos simplemente resaltan las regiones influyentes sin permitir a los examinadores validar la decisión en sí misma.
La explicabilidad basada en reglas es una estrategia prometedora para aumentar la transparencia, pero su implementación en Redes Neuronales Convolucionales (CNN) del mundo real sigue siendo un desafío. Estudios previos son en gran medida experimentales y a menudo requieren modificar el modelo para extraer reglas, lo que entra en conflicto con los requisitos de integridad de los flujos de trabajo de DF.
Para abordar estas deficiencias, se ha presentado un nuevo marco de trabajo para hacer que los modelos CNN utilizados en la etapa de análisis de la informática forense digital sean explicables. Este marco, basado en tres pasos fundamentales –detección del rastro de capas, votación por mayoría de capas y extracción de reglas–, proporciona una salida visual estructurada y transparente, así como una explicabilidad textual basada en reglas que es comprensible para el usuario.
Basándose en este marco, se introduce el primer modelo de Identificación de la Cámara Fuente (SCI) explicable, una tarea de DF particularmente desafiante en términos de explicabilidad. La salida explicable permite al examinador forense rechazar o confirmar la predicción del modelo principal basándose en las decisiones de las capas y el cumplimiento del principio de integridad.
Además, la identificación de 27 de 37 predicciones incorrectas realizadas por el modelo base permitió mejorar la precisión del modelo del 97.33% al 99.2%.
