La decisión de Apple de eliminar su herramienta de escaneo de fotografías CSAM genera una nueva controversia

En diciembre, Apple dijo que era matando un esfuerzo para diseñar un herramienta de escaneo de fotografías iCloud que preserva la privacidad para detectar material de abuso sexual infantil (CSAM) en la plataforma. Anunciado originalmente en agosto de 2021, el proyecto había sido controvertido desde sus inicios. Apple lo había pausado por primera vez en septiembre en respuesta a las preocupaciones de investigadores y grupos de derechos digitales de que inevitablemente se abusaría y explotaría una herramienta de este tipo para comprometer la privacidad y seguridad de todos los usuarios de iCloud. Esta semana, un nuevo grupo de seguridad infantil conocido como Heat Initiative le dijo a Apple que está organizando una campaña para exigir que la compañía “detecte, informe y elimine” material de abuso sexual infantil de iCloud y ofrezca más herramientas para que los usuarios denuncien CSAM al compañía.

Hoy, en un movimiento poco común, Apple respondió a la Iniciativa Heat, describiendo sus razones para abandonar el desarrollo de su función de escaneo CSAM de iCloud y, en cambio, centrarse en una conjunto de herramientas y recursos en el dispositivo para los usuarios conocidos colectivamente como funciones de seguridad de la comunicación. La respuesta de la compañía a la Iniciativa Heat, que Apple compartió con WIRED esta mañana, ofrece una mirada poco común no solo a su justificación para girar hacia la Seguridad de las Comunicaciones, sino a sus puntos de vista más amplios sobre la creación de mecanismos para eludir las protecciones de privacidad de los usuarios, como el cifrado, para monitorear datos. Esta postura es relevante para el debate sobre el cifrado en términos más amplios, especialmente ahora que países como el Reino Unido están considerando aprobar leyes que requerirían que las empresas de tecnología puedan acceder a los datos de los usuarios para cumplir con las solicitudes de las fuerzas del orden.

leer más  El fabricante de cables moscovita Moskabelmet recibió 15 nuevas patentes para sus desarrollos

“El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él”, escribió Erik Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, en la respuesta de la compañía a Heat Initiative. Sin embargo, añadió que después de colaborar con una serie de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la empresa concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM, ni siquiera uno construido específicamente para preservar la privacidad. .

“Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten”, escribió Neuenschwander. “También inyectaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas. La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido”.

WIRED no pudo comunicarse de inmediato con Heat Initiative para comentar sobre la respuesta de Apple. El grupo está dirigido por Sarah Gardner, ex vicepresidenta de asuntos externos de la organización sin fines de lucro Thorn, que trabaja para utilizar nuevas tecnologías para combatir la explotación infantil en línea y el tráfico sexual. En 2021, Thorn elogió el plan de Apple para desarrollar una función de escaneo CSAM de iCloud. Gardner dijo en un correo electrónico al director ejecutivo Tim Cook el miércoles 30 de agosto, que Apple también compartió con WIRED, que Heat Initiative consideró que la decisión de Apple de eliminar la función era “decepcionante”.

leer más  Snoop Dogg dice que dejará el "fumo". Esto tomó desprevenidos a algunos de sus fanáticos.

“Creemos firmemente que la solución que usted presentó no sólo posicionó a Apple como líder mundial en privacidad del usuario, sino que también prometió erradicar millones de imágenes y videos de abuso sexual infantil de iCloud”, escribió Gardner a Cook. “Soy parte de una iniciativa en desarrollo que involucra a expertos y defensores de la seguridad infantil que tienen la intención de dialogar con usted y su empresa, Apple, sobre su continuo retraso en la implementación de tecnología crítica… El abuso sexual infantil es un tema difícil del que nadie quiere hablar. sobre, razón por la cual es silenciado y dejado atrás. Estamos aquí para asegurarnos de que eso no suceda”.

2023-08-31 19:32:43
1693524007
#decisión #Apple #eliminar #herramienta #escaneo #fotografías #CSAM #genera #una #nueva #controversia

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.