El fiscal general de Virginia Occidental ha presentado una demanda de protección al consumidor contra Apple, alegando que la compañía ha fallado en prevenir el almacenamiento y la distribución de material de abuso sexual infantil a través de dispositivos iOS y los servicios de iCloud.
John “JB” McCuskey, un republicano, acusó a Apple de priorizar su imagen de marca en cuanto a privacidad y sus propios intereses comerciales por encima de la seguridad infantil, mientras que otras grandes empresas tecnológicas, incluyendo Google, Microsoft, y Dropbox, han sido más proactivas, utilizando sistemas como PhotoDNA para combatir este tipo de material.
PhotoDNA, desarrollado por Microsoft y Dartmouth College en 2009, utiliza “hashing y coincidencia” para identificar y bloquear automáticamente imágenes de material de abuso sexual infantil (CSAM) una vez que ya han sido identificadas y denunciadas a las autoridades.
En 2021, Apple probó sus propias funciones de detección de CSAM que podían encontrar y eliminar automáticamente imágenes de explotación infantil, e informar de aquellas que se habían subido a iCloud en Estados Unidos al National Center for Missing & Exploited Children.
Sin embargo, la compañía retiró sus planes para estas funciones después de que defensores de la privacidad expresaran su preocupación de que esta tecnología pudiera crear una puerta trasera para la vigilancia gubernamental y ser modificada y explotada para censurar otros tipos de contenido en los dispositivos iOS.
Los esfuerzos de la compañía desde entonces no han satisfecho a una amplia gama de críticos.
En 2024, la organización británica de vigilancia National Society for the Prevention of Cruelty to Children señaló que Apple no había supervisado, tabulado e informado adecuadamente sobre el CSAM en sus productos a las autoridades.
Y en una demanda presentada en 2024 ante el Distrito Norte de California, miles de sobrevivientes de abuso sexual infantil demandaron a Apple, alegando que la compañía nunca debió abandonar sus planes anteriores para las funciones de detección de CSAM y que, al permitir que dicho material se propagara en línea, había causado que los sobrevivientes revivieran su trauma.
Apple se ha posicionado como la empresa de tecnología más sensible a la privacidad desde que su CEO, Tim Cook, escribió una carta abierta sobre el tema en 2014.
Si la demanda de Virginia Occidental tiene éxito, podría obligar a la compañía a realizar cambios en el diseño o en la seguridad de los datos. El estado busca daños y perjuicios estatutarios y punitivos, así como medidas cautelares que obliguen a Apple a implementar una detección eficaz de CSAM.
En una declaración enviada por correo electrónico, un portavoz de Apple dijo a CNBC que “proteger la seguridad y la privacidad de nuestros usuarios, especialmente de los niños, es fundamental para lo que hacemos”.
La compañía señaló los controles parentales y funciones como Communication Safety, que “interviene automáticamente en los dispositivos de los niños cuando se detecta desnudez en Mensajes, Fotos compartidas, AirDrop e incluso en las llamadas FaceTime en vivo”, como una indicación de su compromiso de proporcionar “seguridad, protección y privacidad” a los usuarios.
“Estamos innovando todos los días para combatir las amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños”, añadió el portavoz.
— Kif Leswing de CNBC contribuyó con la información

