Apple sigue sumando críticas pese a los ajustes realizados a su sistema de scanneo de imágenes en búsqueda de material de abuso o pornografía infantil, pues según informa Reuters, una coalición internacional de más de 90 grupos relacionadas con derechos infantiles publicó una carta abierta instando a la compañía a abandonar sus planes de «desarrollar capacidades de vigilancia en iPhones, iPads y otros productos», una referencia a la intención de la compañía de escanear la foto de iCloud de los usuarios.
«Aunque estas capacidades están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil (MASI), nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener efectos desastrosos consecuencias para muchos niños .. y una vez incorporada esta función de puerta trasera, los gobiernos podrían obligar a Apple a extender la notificación a otras cuentas ya detectar imágenes objetables por razones distintas a las sexualmente explícitas»
PÁRRAFO MARCADO DE LA MISIVA QUE SE PUEDE LEER COMPLETA AL FINAL DE LA NOTA
A algunos firmantes de la carta, organizada por el Centro para la Democracia y la Tecnología (CDT), una organización sin fines de lucro con sede en EE.UU. les preocupa que el sistema en el dispositivo de Apple pueda ser subvertido en países con diferentes sistemas legales para buscar contenido político u otro contenido sensible.
En la misiva, se le pide a Apple que abandone los cambios planificados a iMessage en las cuentas familiares, que tratarían de identificar y difuminar la desnudez en los mensajes de los niños, permitiéndoles verlos solo si los padres son notificados y los firmantes afirman que el paso no solo podría poner en peligro a los niños en hogares intolerantes o aquellos que buscan material educativo, sino que también rompería el cifrado de extremo a extremo para iMessage.
Algunos signatarios provienen de países en los que ya hay acaloradas batallas legales por el cifrado digital y los derechos de privacidad, como Brasil, donde WhatsApp ha sido bloqueado repetidamente por no descifrar mensajes en investigaciones criminales, mientras que organizaciones firmantes provienen de India, México, Alemania, Argentina, Ghana y Tanzania.
Los grupos que también han firmado incluyen la Unión Estadounidense por las Libertades Civiles, la Fundación Frontera Electrónica, Access Now, Privacy International y el Proyecto Tor.
El plan de Apple para detectar imágenes CSAM conocidas almacenadas en iCloud Photos ha sido particularmente controvertido y ha generado preocupaciones de investigadores de seguridad, académicos, grupos de privacidad y otros sobre el posible abuso del sistema por parte de los gobiernos como una forma de vigilancia masiva.
Apple también ha dicho que rechazará las demandas para expandir el sistema de detección de imágenes más allá de las imágenes de niños marcadas por bases de datos reconocidas de material de abuso sexual infantil, pero como muchas ONG han señalado, son frases poco convincentes pues nunca ha dicho que se retiraría de un mercado en lugar de obedecer una orden judicial.