Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Chrome descarga sin permiso modelo IA de 4GB: podría violar ley de UE


El investigador Alexander Hanff denuncia que Google Chrome descarga silenciosamente un modelo de IA de 4GB sin el consentimiento del usuario. Esta práctica podría violar leyes de privacidad de la UE y generar un alto impacto ambiental y de consumo de datos. El experto critica que las grandes tecnológicas traten los dispositivos de los usuarios como objetivos de despliegue sin transparencia.






El investigador de seguridad Alexander Hanff, también conocido como "That Privacy Guy", ha publicado un nuevo análisis afirmando que Google Chrome está descargando silenciosamente un modelo de IA en el dispositivo de aproximadamente 4 GB en las máquinas de los usuarios sin aviso ni consentimiento. Según Hanff, este comportamiento refleja un problema distinto que identificó recientemente en el software de escritorio de Anthropic, y ambos casos apuntan a un patrón más amplio sobre cómo las grandes empresas tecnológicas despliegan funciones de IA.

El informe anterior de Hanff sobre la aplicación Claude Desktop de Anthropic señalaba que instalaba discretamente un puente de integración de navegador en múltiples navegadores basados en Chromium en un sistema, incluidos cinco navegadores que ni siquiera tenía instalados. Según el investigador, esto ocurrió sin ninguna solicitud al usuario ni divulgación significativa, y la integración se reinstalaba si se eliminaba. Sostiene que este tipo de modificación silenciosa del entorno del usuario viola tanto las expectativas del usuario como, a su juicio, la ley de privacidad europea.

Ese hallazgo previo sirve de contexto para lo que Hanff describe como un problema similar pero a escala mayor con Chrome. En su última publicación, afirma que Chrome está escribiendo un archivo llamado "weights.bin" en el disco, parte del sistema de IA en el dispositivo de la empresa basado en su modelo ligero Gemini Nano. El archivo tiene aproximadamente 4 GB de tamaño y se descarga automáticamente en sistemas que cumplen ciertos requisitos de hardware. Según Hanff, no existe un flujo de consentimiento claro para esta descarga. Afirma que Chrome no presenta un aviso explicando que se almacenará localmente un modelo de IA de varios gigabytes, ni proporciona un ajuste sencillo para evitarlo. Los usuarios que descubran y eliminen el archivo verán que se vuelve a descargar más tarde, a menos que desactiven ciertas banderas experimentales o eliminen Chrome por completo.


Para verificar lo que estaba sucediendo, Hanff realizó una prueba controlada utilizando un perfil de Chrome nuevo en macOS. Se basó en los registros de eventos del sistema de archivos del sistema operativo, que registran la actividad de los archivos independientemente de las aplicaciones. Según su análisis, el navegador creó el directorio del modelo y descargó la carga completa de 4 GB en segundo plano mientras no había interacción humana. El proceso se completó en poco más de catorce minutos, durante lo que parecía ser un tiempo de navegación inactiva. También señala los archivos de estado internos de Chrome como prueba corroborante. Estos muestran que el navegador evaluó las capacidades de hardware del sistema y lo marcó como apto para el modelo en el dispositivo antes de que se produjera la descarga. En el relato de Hanff, esto indica que Chrome decide proactivamente qué máquinas de los usuarios deben recibir el modelo, en lugar de responder a una acción explícita del usuario.

Más allá de los detalles técnicos, Hanff plantea preocupaciones legales. Sostiene que tanto el caso de Anthropic como el de Chrome probablemente violan disposiciones de la ley de la UE, incluidas las reglas de la Directiva sobre privacidad electrónica sobre el almacenamiento de datos en los dispositivos de los usuarios y los requisitos del RGPD sobre transparencia y procesamiento legal. Estas afirmaciones no han sido probadas en los tribunales, pero reflejan una tensión creciente entre el despliegue agresivo de funciones y las expectativas regulatorias, especialmente en Europa.

Coste medioambiental del despliegue de Gemini Nano en Chrome


Un punto clave de la publicación de Hanff es el coste medioambiental de distribuir silenciosamente un modelo de IA de 4 GB, donde destaca los peligros de distribuir un archivo de este tamaño a escala global. Si se despliega en cientos de millones o miles de millones de dispositivos, Hanff estima que el impacto total de las emisiones solo por distribuir el archivo podría alcanzar decenas de miles de toneladas de CO2 equivalente, una cantidad similar a la producción anual de decenas de miles de coches. Esa estimación depende en gran medida de supuestos posiblemente dudosos sobre la escala y la mezcla energética, pero su punto general, que enviar binarios grandes a los dispositivos de los usuarios no es gratuito y el coste se externaliza, es completamente válido independientemente de las matemáticas.


Para muchos usuarios, la preocupación más inmediata es el ancho de banda. Una descarga de 4 GB es trivial en una conexión de fibra ilimitada, pero eso no es en absoluto la norma global, ni es común incluso en los Estados Unidos. Para los usuarios cuyos datos están limitados, medidos o son costosos, incluyendo a la mayoría del mundo en desarrollo, transferir silenciosamente gigabytes de datos puede tener consecuencias financieras reales. Incluso en mercados desarrollados, los usuarios con puntos de acceso móviles o conexiones rurales pueden sentir el impacto agudamente. Hanff argumenta que descargar archivos de este tamaño sin un aviso o consentimiento claros cruza una línea muy claramente demarcada, independientemente de la función que se esté entregando.

En conjunto, los dos casos refuerzan una crítica familiar a las grandes plataformas tecnológicas. Según Hanff, tanto Anthropic como Google actuaron primero y dejaron que los usuarios descubrieran las consecuencias más tarde. Ya sea registrando silenciosamente integraciones profundas del sistema (en el caso de Claude Desktop) o descargando modelos de IA de varios gigabytes en segundo plano, el patrón es el mismo: el dispositivo del usuario está siendo tratado como un objetivo de despliegue en lugar de algo que el usuario controla activamente. Este planteamiento puede sonar duro, pero se alinea con quejas prolongadas sobre los "patrones oscuros" en el diseño de software. Las funciones que benefician a la plataforma a costa del usuario se habilitan por defecto, se ocultan tras ajustes oscuros o se implementan de manera que sea difícil eliminarlas. El informe de Hanff sugiere que el cambio hacia la IA en el dispositivo no está cambiando esa dinámica y, de hecho, podría estar acelerándola.

Google no ha respondido públicamente en detalle a los hallazgos de Hanff en el momento de escribir esto, y la empresa podría argumentar que estas descargas están vinculadas a funciones legítimas del producto y mejoran la privacidad al mantener el procesamiento de la IA de forma local. Aun así, la cuestión fundamental sigue sin resolverse. Si un navegador va a descargar gigabytes de datos en la máquina de un usuario, ¿debería requerir un consentimiento explícito? La respuesta de Hanff es claramente sí. El hecho de que los reguladores o los usuarios estén finalmente de acuerdo puede determinar hasta dónde pueden llegar las empresas con este tipo de comportamiento en el futuro.

Fuente:TomsHardware

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.