La decisión de Apple de eliminar la herramienta de escaneo de fotografías CSAM generó una nueva controversia

manzana en diciembre También está intentando diseñar una herramienta de escaneo de fotografías de iCloud que preserve la privacidad para detectar material de abuso sexual infantil (CSAM) en la plataforma. Anunciado originalmente en agosto de 2021, el proyecto fue controvertido desde el principio. Apple lo detuvo por primera vez en septiembre en respuesta a las preocupaciones de investigadores y grupos de derechos digitales de que una herramienta de este tipo inevitablemente sería mal utilizada y explotada para comprometer la privacidad y seguridad de todos los usuarios de iCloud. Esta semana, un nuevo grupo de seguridad infantil conocido como Heat Initiative dijo a Apple que estaba organizando una campaña para exigir a la empresa «detectar, informar y eliminar» contenido de abuso sexual infantil de iCloud y ofrecer a los usuarios más herramientas para informarlo a CSAM. Compañía

Hoy, en un movimiento poco común, Apple respondió a la Iniciativa Heat, citando sus razones para abandonar el desarrollo de su función de escaneo CSAM de iCloud y, en cambio, centrarse en un conjunto de herramientas y recursos en el dispositivo para los usuarios conocidos colectivamente como funciones de «seguridad de las comunicaciones». La respuesta de la compañía a la iniciativa HEAT, que Apple compartió con WIRED esta mañana, ofrece una mirada poco común no solo a su justificación para centrarse en la seguridad de las comunicaciones, sino también a sus puntos de vista más amplios sobre la creación de mecanismos para eludir las protecciones de privacidad del usuario como el cifrado. El papel de los datos está más ampliamente relacionado con el debate sobre el cifrado, especialmente porque países como el Reino Unido han aprobado leyes que exigen que las empresas de tecnología puedan acceder a los datos de los usuarios para cumplir con las solicitudes de las autoridades.

«El contenido de explotación sexual infantil es aborrecible y estamos comprometidos a romper las cadenas de coerción e influencia que hacen que los niños sean susceptibles a ello», escribió Eric Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, en respuesta a la iniciativa HEAT de la compañía. Añadió que después de colaborar con una variedad de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la compañía concluyó que no podía desarrollar un mecanismo de escaneo CSAM, ni siquiera uno diseñado específicamente para proteger la privacidad.

«Escanear los datos de iCloud almacenados de forma privada de cada usuario creará nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten», escribió Neuenschwander. «También inyectaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas. La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a una vigilancia masiva y puede provocar el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido.

WIRED no pudo comunicarse de inmediato con Heat Initiative para comentar sobre la respuesta de Apple. El grupo está dirigido por Sarah Gardner, ex vicepresidenta de asuntos externos de la organización sin fines de lucro Thorne, que trabaja para utilizar nuevas tecnologías para combatir la explotación infantil y el tráfico sexual en línea. En 2021, Thorne elogió el plan de Apple para desarrollar una función de escaneo CSAM de iCloud. Gardner dijo en un correo electrónico al director ejecutivo Tim Cook el miércoles, que Apple también compartió con Wired, que la Iniciativa Heat consideró que la decisión de Apple de eliminar la función era «decepcionante».

«Creemos firmemente que la solución que ha presentado no sólo posiciona a Apple como líder mundial en privacidad del usuario, sino que promete eliminar millones de imágenes y vídeos de abuso sexual infantil de iCloud», escribió Gardner a Cook. “Soy parte de una iniciativa creciente que incluye expertos y defensores preocupados por la seguridad infantil para involucrarlo a usted y a su empresa, Apple, en su continuo retraso en la implementación de tecnología crítica… El abuso sexual infantil es un tema difícil del que cualquiera quiere hablar. No. Acerca de, por eso se calma y se queda atrás. Estamos aquí para asegurarnos de que eso no suceda”.

Releated