Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Aplicación de chat con IA expone 300 millones de mensajes de 25 millones de usuarios


La aplicación móvil popular "Chat & Ask AI" ha expuesto inadvertidamente cientos de millones de conversaciones privadas de usuarios. La app, que cuenta con más de 50 millones de usuarios en las tiendas de Google Play y Apple App Store, no logró proteger su base de datos backend, permitiendo el acceso no autorizado a datos sensibles de los usuarios. 





La popular aplicación móvil “Chat & Ask AI” ha expuesto inadvertidamente cientos de millones de conversaciones privadas de usuarios.

La app, que presume de tener más de 50 millones de usuarios en las tiendas de Google Play y Apple App Store, no logró proteger su base de datos backend, permitiendo el acceso no autorizado a datos sensibles de los usuarios.

La filtración se originó por una mala configuración en la plataforma Google Firebase, que los desarrolladores utilizan para crear aplicaciones móviles. Aunque Firebase es una herramienta estándar, requiere una configuración cuidadosa para garantizar la seguridad.

En este caso, los ajustes se dejaron en un estado predeterminado que permitía a cualquiera designarse como usuario “autenticado”. Este simple resquicio otorgó acceso al almacenamiento backend de la app.

La magnitud de la filtración es enorme. El investigador reportó acceso a aproximadamente 300 millones de mensajes pertenecientes a más de 25 millones de usuarios.

Según informes de 404media, la base de datos expuesta contenía registros completos de la actividad de los usuarios, incluyendo:

  • Historiales completos de conversaciones con la IA.
  • Marcas de tiempo de cuándo ocurrieron los chats.
  • Nombres personalizados que los usuarios dieron a sus compañeros de IA.
  • Configuraciones específicas y el tipo de modelo de IA utilizado (como ChatGPT, Claude o Gemini).

El contenido de estos mensajes resalta las graves implicaciones de privacidad de la brecha.

Un análisis de un conjunto de datos de muestra que incluía 60.000 usuarios y un millón de mensajes reveló consultas profundamente personales y potencialmente peligrosas.

Los usuarios habían preguntado a la IA instrucciones sobre cómo fabricar drogas ilegales como metanfetamina, cómo hackear otras aplicaciones y, lo más preocupante, consejos sobre suicidio y cómo redactar notas de suicidio.

“Chat & Ask AI” funciona como una app “envolvente”. Esto significa que no ejecuta su propio motor de IA; en su lugar, conecta a los usuarios con modelos potentes de grandes empresas como OpenAI, Google y Anthropic.

Aunque los modelos de IA subyacentes (como ChatGPT) no fueron comprometidos, la app envolvente actuó como un eslabón débil, almacenando las conversaciones de manera insegura.

Se recomienda a los usuarios ser cautelosos con la información personal que comparten con herramientas de IA de terceros y revisar cuidadosamente los permisos y la reputación de las apps.



Fuentes:
https://cybersecuritynews.com/ai-chat-app-exposes-messages/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.