Apple proporciona más claridad sobre por qué abandonó el plan para detectar CSAM en fotos de iCloud

apple-explains-csam-plan-abandoned/">

Apple proporcionó el jueves su explicación más completa hasta el momento sobre el año pasado. abandonando su controvertido plan para detectar material conocido de abuso sexual infantil (CSAM) almacenado en Fotos de iCloud.

La declaración de Apple, compartida con cableado y reproducido a continuación, surgió en respuesta a la demanda del grupo de seguridad infantil Heat Initiative de que la empresa “detecte, informe y elimine” el CSAM de iCloud y ofrecer más herramientas para que los usuarios denuncien dicho contenido a la empresa.

“El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él”, escribió Erik Neuenschwander, director de privacidad de usuarios y seguridad infantil de Apple, en la respuesta de la compañía a Heat Initiative. Sin embargo, añadió que después de colaborar con una serie de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la empresa concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM, ni siquiera uno construido específicamente para preservar la privacidad. .

“Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten”, escribió Neuenschwander. “También inyectaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas. La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido”.

En agosto de 2021, Apple planes anunciados para tres nuevas funciones de seguridad infantil, incluido un sistema para detectar imágenes CSAM conocidas almacenadas en ‌iCloud Photos‌, una opción de seguridad de la comunicación que difumina las fotos sexualmente explícitas en la aplicación Mensajes y recursos de explotación infantil para siri. Communication Safety se lanzó en los EE. UU. con iOS 15.2 en diciembre de 2021 y desde entonces se ha expandido al Reino Unido, Canadá, Australia y Nueva Zelanda, y los recursos de ‌Siri‌ también están disponibles, pero la detección de CSAM nunca terminó lanzándose.

leer más  Descubren en Brasil al lagarto fósil más antiguo de Sudamérica: Pampaphoneus biccai

Apple inicialmente dijo que la detección de CSAM se implementaría en una actualización de iOS 15 y iPadOS 15 para fines de 2021, pero la compañía pospuso la función basándose en “comentarios de clientes, grupos de defensa, investigadores y otros”. Los planes fueron criticados por una amplia gama de personas y organizaciones, entre ellas investigadores de seguridadel Fundación Frontera Electrónica (EFF), politicos, grupos de políticas, investigadores universitariose incluso algunos empleados de Apple.

La última respuesta de Apple al problema llega en un momento en que el gobierno del Reino Unido ha reavivado el debate sobre el cifrado, que está considerando planes para modificar la legislación de vigilancia eso requeriría que las empresas de tecnología deshabiliten funciones de seguridad como el cifrado de extremo a extremo sin avisar al público.

Apple dice que lo hará servicios de extracción que incluyen FaceTime e iMessage en el Reino Unido si la legislación se aprueba en su forma actual.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestra Noticias políticas foro. Todos los miembros del foro y visitantes del sitio pueden leer y seguir el hilo, pero las publicaciones están limitadas a miembros del foro con al menos 100 publicaciones.

2023-09-01 10:09:09
1693566492
#Apple #proporciona #más #claridad #sobre #por #qué #abandonó #plan #para #detectar #CSAM #fotos #iCloud

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.