Home TecnologíaApple acusada de facilitar abuso infantil en iCloud: Demanda en EEUU

Apple acusada de facilitar abuso infantil en iCloud: Demanda en EEUU

by Editor de Tecnologia

La fiscal general de Virginia Occidental presentó el jueves una demanda acusando a Apple de permitir que su servicio iCloud se convirtiera en un vehículo para la distribución de material de abuso sexual infantil.

El estado alega que la compañía facilitó la propagación de este tipo de material al negarse a implementar herramientas que escaneen fotos y videos para detectar contenido abusivo en las colecciones de los usuarios de iCloud.

JB McCuskey, un republicano, acusó a Apple de priorizar la privacidad del usuario por encima de la seguridad infantil. Su oficina calificó el caso como el primero de su tipo por parte de una agencia gubernamental relacionado con la distribución de material de abuso sexual infantil en la plataforma de almacenamiento de datos de Apple.

“Estas imágenes son un registro permanente del trauma de un niño, y ese niño es revictimizado cada vez que el material se comparte o se visualiza”, declaró McCuskey. “Esta conducta es despreciable, y la inacción de Apple es inexcusable.”

Apple respondió con una negación rotunda a las acusaciones: “En Apple, proteger la seguridad y la privacidad de nuestros usuarios, especialmente de los niños, es fundamental para lo que hacemos. Estamos innovando cada día para combatir las amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños.” La compañía enfatizó sus controles que impiden que los niños carguen o reciban imágenes explícitas, aunque la demanda de Virginia Occidental se centra en el uso de dispositivos y servicios de Apple por parte de abusadores.

En 2020, un ejecutivo a cargo de la detección de fraudes en Apple envió un mensaje de texto a un colega: “Somos la mejor plataforma para distribuir pornografía infantil”. El intercambio se hizo público durante el juicio entre Apple y el creador de Fortnite, Epic Games.

leer más  Google Bloquea Acceso Temporalmente

Un grupo de víctimas de explotación sexual infantil demandó a Apple en 2024, presentando acusaciones similares y solicitando 1.200 millones de dólares en daños y perjuicios. La demanda aún está en curso. El mismo año, la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños (NSPCC) del Reino Unido acusó a Apple de subestimar significativamente la frecuencia con la que aparecía material de abuso sexual infantil en sus productos. Según datos policiales obtenidos por la NSPCC, en un año, los depredadores infantiles utilizaron iCloud, iMessage y FaceTime de Apple para almacenar e intercambiar CSAM en un número mayor de casos en Inglaterra y Gales solo que los que la compañía reportó en todos los demás países combinados. Apple no comentó sobre este hallazgo en ese momento.

Apple informa rutinariamente a la National Center for Missing and Exploited Children (NCMEC) un número mucho menor de casos de CSAM que Google o Meta, según datos publicados por la NCMEC.

Apple of failing to report sexual images of children","elementId":"77bd4a5d-aa20-488d-8a4c-bb048e027ad6","role":"richLink","url":"https://www.theguardian.com/technology/article/2024/jul/22/apple-security-child-sexual-images-accusation"},"ajaxUrl":"https://api.nextgen.guardianapps.co.uk","format":{"design":0,"display":0,"theme":0}}"/>

La compañía consideró escanear las imágenes almacenadas en las cuentas privadas de iCloud, pero abandonó este enfoque debido a preocupaciones sobre la privacidad y la seguridad de los usuarios, incluyendo el temor de que pudiera ser explotado por gobiernos que buscan otro tipo de material para la censura o arrestos.

La oficina de McCuskey presentó la demanda en el tribunal de circuito del condado de Mason. La demanda busca daños y perjuicios estatutarios y punitivos, y solicita que un juez obligue a Apple a implementar medidas más eficaces para detectar material abusivo y a diseñar productos más seguros.

Alphabet’s Google, Microsoft y otros proveedores de plataformas verifican las fotos cargadas o los archivos adjuntos de correo electrónico en comparación con una base de datos de identificadores de material conocido de abuso sexual infantil proporcionada por el National Center for Missing and Exploited Children y otras agencias de intercambio de información.

leer más  Iam8bit demanda a Skybound por fraude y robo de diseños de Stray

Hasta 2022, Apple adoptó un enfoque diferente. No escaneaba todos los archivos cargados a sus ofertas de almacenamiento de iCloud, y los datos no estaban encriptados de extremo a extremo, lo que significaba que los funcionarios encargados de hacer cumplir la ley podían acceder a ellos con una orden judicial.

Reuters informó en 2020 que Apple planeaba el cifrado de extremo a extremo para iCloud, lo que habría puesto los datos en un formato inutilizable para los funcionarios encargados de hacer cumplir la ley. Abandonó el plan después de que el FBI se quejara de que perjudicaría las investigaciones.

En agosto de 2021, Apple anunció NeuralHash, que diseñó para equilibrar la detección de material de abuso infantil con la privacidad al escanear imágenes en los dispositivos de los usuarios antes de la carga.

El sistema fue criticado por investigadores de seguridad que temían que pudiera generar informes falsos de material abusivo, y provocó una reacción negativa de los defensores de la privacidad que afirmaron que podría ampliarse para permitir la vigilancia gubernamental.

Un mes después, Apple retrasó el lanzamiento de NeuralHash antes de cancelarlo en diciembre de 2022, según declaró el estado en su comunicado. Ese mismo mes, Apple lanzó una opción de cifrado de extremo a extremo para los datos de iCloud.

El estado dijo que NeuralHash era inferior a otras herramientas y podía ser fácilmente evadido. Afirmó que Apple almacena y sincroniza datos a través de iCloud sin una detección proactiva de material abusivo, lo que permite que circulen dichas imágenes.

Si bien Apple no siguió adelante con el esfuerzo de escanear las imágenes que se cargan a iCloud, implementó una función llamada Communication Safety que difumina la desnudez y otro contenido sensible que se envía o recibe desde el dispositivo de un niño.

leer más  Xiaomi Poco F7 Pro: Análisis y Opinión

La ley federal exige que las empresas tecnológicas con sede en Estados Unidos informen sobre material abusivo al National Center for Missing and Exploited Children. Apple realizó 267 informes en 2023, en comparación con los 1,47 millones de Google y los 30,6 millones de Meta Platforms, según el estado.

Las afirmaciones del estado reflejan las alegaciones de una demanda colectiva propuesta presentada contra Apple a finales de 2024 en un tribunal federal de California por personas representadas en dichas imágenes.

Apple ha solicitado el desestimación de esa demanda, argumentando que la empresa está protegida de la responsabilidad en virtud de la sección 230 de la Communications Decency Act, una ley que proporciona una amplia protección a las empresas de Internet contra demandas por contenido generado por los usuarios.

En los EE. UU., llame o envíe un mensaje de texto a la línea directa de abuso de Childhelp al 800-422-4453 o visite su sitio web para obtener más recursos e informar sobre el abuso infantil o envíe un mensaje directo para obtener ayuda. Para los sobrevivientes adultos de abuso infantil, hay ayuda disponible en ascasupport.org. En el Reino Unido, la NSPCC ofrece apoyo a los niños al 0800 1111 y a los adultos preocupados por un niño al 0808 800 5000. La Asociación Nacional de Personas Abusadas en la Infancia (Napac) ofrece apoyo a los sobrevivientes adultos al 0808 801 0331. En Australia, los niños, jóvenes, padres y maestros pueden comunicarse con Kids Helpline al 1800 55 1800; los sobrevivientes adultos pueden buscar ayuda en Blue Knot Foundation al 1300 657 380. Se pueden encontrar otras fuentes de ayuda en Child Helpline International

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.