ir al contenido

¿Qué hay detrás de las protestas contra Apple por el software CSAM?

Apple
TECNOLOGÍA. Una foto facilitada por Apple Inc. muestra al vicepresidente senior de marketing mundial de la marca, Greg Joswiak, hablando sobre el nuevo iPhone 13 Pro en California, el 14 de septiembre de 2021. | Foto: Efe.

Un día antes del lanzamiento del Iphone 13, en Estados Unidos se realizaron protestas en tiendas de Apple en diversos estados para exigir a la empresa que descarte permanentemente instalar software de escaneo de fotos y mensajes en los dispositivos de la marca, con una clara referencia a CSAM.

El contexto: Las protestas, aunque no fueron multitudinarias, se difundieron en redes sociales. Fueron organizadas por Fight for the Future, la Electronic Frontier Foundation y activistas en ciudades como Boston, Nueva York, Washington DC, Atlanta, Chicago, San Francisco, Portland, Minneapolis, Aventura y Houston.

  • En los carteles que portaban los manifestantes se leían frases como “Nunca más software espía en nuestros teléfonos”.
  • CSAM es una tecnología de detección de material de abuso sexual infantil (Child Sexual Abuse Material) que había suscitado graves problemas de privacidad entre los usuarios.
  • Una de las funciones alertaba a los padres si sus hijos envían o reciben imágenes sexualmente explícitas; y otra escanea las fotos en el iCloud e informa de cualquier contenido infractor a los moderadores de Apple.
  • Los críticos agregaron que la capacidad de escaneo de imágenes podría funcionar como una puerta trasera para una nueva vigilancia y censura.

¿Qué dicen? “Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos un tiempo adicional, durante los próximos meses, para recopilar información y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica”, dijo Apple en un comunicado a The Hill.

  • La compañía afirmó que el escaneo de imágenes en la nube estaba “diseñado para pensar en la privacidad del usuario”, y que analizaría cada imagen antes de marcar el material como contenido sexual.

Últimas Noticias