La fiscalía general de Virginia Occidental demandó a Apple el jueves, alegando que la compañía tecnológica permitió el almacenamiento y la distribución de material de abuso sexual infantil en su servicio iCloud.
La demanda sostiene que Apple priorizó la privacidad del usuario sobre la seguridad infantil durante años. La empresa ejerce un control estricto sobre su hardware, software e infraestructura en la nube, lo que implica que no puede desconocer el problema, argumentó la fiscalía general.
Según la demanda, las empresas tecnológicas con sede en Estados Unidos están obligadas por ley federal a denunciar este tipo de contenido al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Mientras que Google presentó 1.47 millones de informes en 2023, Apple supuestamente presentó solo 267.
«Estas imágenes son un registro permanente del trauma de un niño, y ese niño es revictimizado cada vez que el material se comparte o se visualiza», declaró el fiscal general de Virginia Occidental, JB McCuskey, en un comunicado. «Esta conducta es despreciable, y la inacción de Apple es inexcusable.»
«En Apple, proteger la seguridad y la privacidad de nuestros usuarios, especialmente de los niños, es fundamental para lo que hacemos. Estamos innovando cada día para combatir las amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños», afirmó un portavoz de Apple en un comentario a CNN.
Apple también destacó una función que ofrece llamada Comunicación Segura, que advierte a los niños y difumina la imagen cuando se detecta desnudez al recibir o intentar enviar contenido. Funciona en aplicaciones como Mensajes y FaceTime, así como a través de AirDrop y en la función Contactos en el iPhone y la herramienta de selección de imágenes en la aplicación Fotos. El portavoz añadió que los controles parentales y las funciones de Apple «están diseñados teniendo en el centro la seguridad, la protección y la privacidad de nuestros usuarios».
Las grandes empresas tecnológicas utilizan herramientas como Microsoft PhotoDNA para detectar imágenes de explotación infantil, según la fiscalía general de Virginia Occidental. Microsoft afirma que proporciona esta tecnología de forma gratuita a organizaciones calificadas, incluidas las empresas tecnológicas. Apple dijo en 2021 que utilizaría su propio modelo llamado neuralhash para detectar material de abuso sexual infantil, pero luego abandonó el plan tras las críticas sobre las preocupaciones de privacidad. La denuncia alega que neuralhash es una herramienta muy inferior a PhotoDNA.
La demanda se produce en un momento de creciente escrutinio sobre los efectos del impacto de las grandes tecnológicas en los niños. En 2023, la fiscalía general de Nuevo México acusó a Meta de cerrar cuentas que utilizaba para investigar el presunto abuso sexual infantil en Facebook e Instagram. El fiscal general de Nuevo México, Raúl Torrez, acusó a Meta en la demanda de crear un «criadero» para depredadores infantiles en esas plataformas.
Meta rechazó enérgicamente las acusaciones en ese momento, afirmando que «utilizamos tecnología sofisticada, contratamos a expertos en seguridad infantil, denunciamos contenido al Centro Nacional para Niños Desaparecidos y Explotados, y compartimos información y herramientas con otras empresas y fuerzas del orden, incluidos los fiscales generales estatales, para ayudar a erradicar a los depredadores».
La fiscalía general de Virginia Occidental busca daños y perjuicios legales y punitivos, medidas cautelares, así como requisitos para que Apple implemente medidas de detección eficaces.
The-CNN-Wire & 2026 Cable News Network, Inc., a Time Warner Company. All rights reserved.
