Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Apple escaneará las fotos de tu iPhone en busca de pornografía infantil


Apple ha anunciado una nueva serie de medidas para proteger a los niños de los pedófilos y limitar la propagación de material de abuso sexual infantil (CSAM, por sus siglas en inglés) en su ecosistema. La iniciativa más polémica es la permitirá a la compañía escanear fotos almacenadas en iPhones y iCloud con el objetivo de detectar material pedófilo. La aplicación de estas medidas se limitará a Estados Unidos, por ahora. En Europa los proveedores de servicios ya pueden monitorizar las comunicaciones en busca de pornografía infantil.



  • "Lo que pasa en tu iPhone, se queda en tu iPhone" fue el lema publicitario de Apple

Apple escaneará las fotos de tu iPhone en busca de imágenes de abuso sexual infantil

El sistema será automático y, en caso de que se encuentre alguna coincidencia o una imagen sea sospechosa, la alerta saltará y una persona se encargará de evaluar la fotografía. De ser necesario, después pondrá el caso en conocimiento de las fuerzas de seguridad. 

El denunciante estadounidense Edward Snowden dijo que, a pesar de las buenas intenciones del proyecto, lo que Apple está implementando es "vigilancia masiva", mientras que el profesor de criptografía de la Universidad Johns Hopkins y experto en seguridad Matthew Green dijo que "el problema es que el cifrado es una herramienta poderosa que proporciona privacidad, y realmente no se puede tener una privacidad sólida al mismo tiempo que se supervisa cada imagen que alguien envía ". 


Según indica Apple, iOS, iPadOS, watchOS y macOS recibirán a finales de este año una actualización que incluirá “nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, a la vez que se tiene en cuenta la privacidad de los usuarios”. La compañía añade que la detección de CSAM será de ayuda a la hora de proporcionar información a las fuerzas del orden sobre colecciones de material pedófilo en iCloud. Siri y Search también intervendrán en caso de que el usuario intente buscar pornografía infantil.

Child Sexual Abuse Material (CSAM)



Al igual que otras plataformas en la nube como las gestionadas por Google, Apple ya vigila los archivos de iCloud en busca de material pedófilo, pero el sistema que pondrá en marcha la compañía va más allá, ya que también tendrá acceso al contenido almacenado de forma local. El mecanismo utilizará tecnologías basadas en la coincidencia de hash para buscar similitudes entre las imágenes presentes en el dispositivo y otras ya conocidas como las que tiene el National Center for Missing & Exploited Children (NCMEC) u otras organizaciones.

En el documento de Apple hay una mención frecuente del término CSAM (por 'Child Sexual Abuse Material', es decir, pornografía infantil). Esas medidas son tres:

  1. Messages: la aplicación de mensajería "usará aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple".
  2. iCloud Photos: "en iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de CSAM online, mientras se protege la privacidad del usuario. La detección CSAM ayudará a Apple a proporcionar información valiosa a las agencias de seguridad en cuanto a colecciones de imágenes CSAM en iCloud Photos".
  3. Siri y Search: estas funciones "proporcionarán a padres e hijos información adicional y les ayudarán si se encuentran con soluciones inseguras. Siri y Search también intervendrán cuando los usuarios traten de buscar temas relacionados con CSAM".

La aplicación Mensajes será capaz de detectar imágenes sexualmente explícitas y las difuminará, en el caso de los niños. Además, aparecerá un mensaje que alertará al niño del contenido de esa fotografía y, además, avisará a los padres para que puedan ver también la imagen. 



Apple sostiene que el sistema tiene un "nivel extremadamente alto de precisión y garantiza menos de una en un billón de posibilidades por año de marcar incorrectamente una cuenta determinada”. Cuando haya una coincidencia, el informe será revisado manualmente, la cuenta quedará deshabilitada y se informará a las autoridades. A pesar de que la causa es noble y la promesa de Apple de respetar la privacidad de sus usuarios, ya hay voces que han expresado su preocupación por la existencia de un sistema con estas características.



Investigadores expresan preocupación por la privacidad 


Las críticas han sido numerosas y han venido desde diferentes frentes. Entre quienes ven el movimiento con preocupación están los que afirman que Apple quiere normalizar la idea de que una empresa escanee el contenido de nuestro teléfono, así que empiezan haciéndolo con una idea medio razonable.




“Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas”, dice Matthew Green, experto en criptografía de Universidad Johns Hopkins, mediante un hilo en su cuenta personal en Twitter. “Pero, ¿te imaginas que podría hacer en manos de un gobierno autoritario?”. Green también pone en duda el sistema de coincidencia de hash, ya que quien controle la lista tendrá la capacidad de buscar cualquier contenido en el teléfono.

"La explotación infantil es un problema grave, y Apple no es la primera empresa de tecnología en cambiar su postura de protección de la privacidad en un intento de combatirla. Pero esa elección tendrá un alto precio para la privacidad general del usuario", dijo Electronic Frontier Foundation. (EFF) dijo en un comunicado, señalando que la medida de Apple podría romper las protecciones de cifrado y abrir la puerta a abusos más amplios.

"Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de las marcas de configuración para escanear, no solo las cuentas de los niños, sino de cualquier persona. Eso no es una pendiente resbaladiza; ese es un sistema completamente construido que solo espera que la presión externa haga el más mínimo cambio ", agregó. 


NeuralHash

NeuralHash y compara las fotografías con una base de datos de imágenes de abuso sexual infantil que están en poder del NCMEC, el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos,  National Center for Missing & Exploited Children Esas imágenes se traducen en códigos numéricos que, en caso de coincidir con las muestras, provocarán la alerta. 

Fuentes:

https://www.elotrolado.net/noticias/internet/apple-detectar-csam-ios-icloud

https://www.elconfidencial.com/tecnologia/2021-08-06/apple-escanea-fotos-iphone-abuso-sexual-infantil_3219996/

https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.