Productos FTTH

Tienda FFTH desde 2004

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Demanda colectiva a OpenAI por compartir datos de ChatGPT con Google y Meta


OpenAI Global LLC se enfrenta a una demanda colectiva en California, en la que se acusa a la empresa de integrar discretamente Facebook Pixel de Meta y Google Analytics en la interfaz web de ChatGPT. Según la denuncia, esta acción habría convertido conversaciones altamente sensibles del chatbot en datos de seguimiento monetizables para ecosistemas de publicidad en línea.


ChatGPT revela datos privados del usuario

  • ChatGPT ha vuelto a comprometer la privacidad de sus usuarios al filtrar datos personales sensibles. Según se ha reportado, el chatbot reveló la dirección y el número de teléfono de un usuario tras una consulta directa sobre su propia identidad, una situación descrita como aterradora.


OpenAI Global LLC se enfrenta a una nueva demanda colectiva en el Distrito Sur de California que acusa a la empresa de integrar discretamente en su interfaz web de ChatGPT el Facebook Pixel de Meta y Google Analytics, convirtiendo conversaciones del chatbot altamente sensibles en datos de seguimiento monetizables para los ecosistemas de publicidad en línea.

Presentada por Amargo Couture, residente de California, en nombre de todos los usuarios de EE. UU. que realizaron consultas en ChatGPT.com, la demanda afirma que OpenAI reveló temas de chat, identificadores y detalles de contacto de los usuarios a Meta y Google sin consentimiento, infringiendo la Ley Federal de Privacidad de las Comunicaciones Electrónicas (ECPA), la Ley de Invasión de la Privacidad de California (CIPA) y los derechos constitucionales de privacidad estatales.

Según la demanda, ChatGPT se utiliza habitualmente para discutir “temas sensibles y personales” como finanzas, salud y asuntos legales, y algunas estimaciones sugieren que una parte significativa de los datos de empresas pegados en ChatGPT son confidenciales.

Presumiblemente, los usuarios tenían la expectativa razonable de que estas conversaciones permanecerían entre ellos y OpenAI, y no que serían enviadas a plataformas de tecnología publicitaria de terceros.

El litigio surge en medio de una ola más amplia de disputas sobre privacidad y derechos de autor relacionadas con la IA generativa y sigue a demandas anteriores que cuestionaron las prácticas de recopilación de datos y entrenamiento de OpenAI.

OpenAI es golpeada con una demanda por acciones de privacidad

Para Meta, la demanda se centra en el código de Facebook Pixel incrustado en las páginas web de ChatGPT, que presuntamente activa solicitudes HTTP silenciosas y en tiempo real a los servidores de Facebook cada vez que un usuario interactúa con el sitio.

Se afirma que estas solicitudes incluyen tanto el contexto derivado del contenido (por ejemplo, el título de la pestaña del navegador “Ganador del Super Bowl 2005” derivado de una consulta del usuario) como un conjunto de cookies como c_user, fr y fbp que pueden vincularse a una cuenta de Facebook específica a través del ID de Facebook del usuario.

Se cita la propia documentación de Meta para argumentar que esta telemetría se introduce luego en sus sistemas de “Audiencias principales”, “Audiencias personalizadas” y “Audiencias similares” para una segmentación publicitaria altamente granular en Facebook e Instagram.

Por el lado de Google, la demanda alega que Google Analytics y las etiquetas asociadas de Google Ads capturan direcciones de correo electrónico cifradas (hashed) utilizadas para registrarse o iniciar sesión en ChatGPT, así como identificadores de dispositivo y navegador, y otras cookies de Google Signals que mapean la actividad con perfiles de Google conectados.

Muestras de trazas de red en el archivo muestran cargas útiles de eventos donde aparece un correo electrónico cifrado bajo un campo “em”, junto con cookies como Secure-3PSID que están asociadas con identidades de cuentas de Google.

Posteriormente, se acusa a Google Analytics de enriquecer estos datos con comportamiento multidispositivo, señales demográficas y funciones de remarketing, permitiendo que OpenAI y Google vuelvan a impactar a los usuarios basándose en su actividad en ChatGPT e integren esos eventos en productos de análisis y publicidad más amplios.

Sustancialmente, la demanda asevera que OpenAI “instaló intencionalmente escuchas telefónicas” en ChatGPT.com al incrustar scripts de seguimiento de Meta y Google, ayudando así a la interceptación de las comunicaciones de los usuarios en tránsito por parte de terceros.

Bajo la ECPA, los demandantes argumentan que cada interacción con ChatGPT constituye una “comunicación electrónica”, y que copiar esas comunicaciones a Meta y Google a través de JavaScript del lado del cliente y píxeles de seguimiento califica como una interceptación, divulgación y uso ilegal.

Bajo las Secciones 631 y 632 de la CIPA, caracterizan las etiquetas de Meta Pixel y Google Analytics —así como las cookies y servidores asociados— como “máquinas, instrumentos o artilugios” utilizados para leer o conocer el contenido de las comunicaciones y espiar sesiones confidenciales sin el consentimiento de todas las partes.

La clase propuesta a nivel nacional cubre a todos los residentes de EE. UU. cuya información de identificación personal (PII) y comunicaciones de ChatGPT fueron reveladas a terceros a través del sitio web, con una subclase de California que busca daños estatutarios bajo la CIPA de hasta 5,000 USD por infracción.

Los demandantes también buscan una medida cautelar para obligar a OpenAI a eliminar o rediseñar sus integraciones de seguimiento y prohibir nuevas divulgaciones de datos derivados del chatbot a socios de tecnología publicitaria.

Si es certificada y tiene éxito, el caso podría exponer a OpenAI a una cantidad masiva de daños estatutarios y colocar efectivamente el seguimiento basado en el navegador de los chats de IA bajo el mismo microscopio legal que los píxeles de sitios de salud y los scripts de reproducción de sesiones que recientemente han atraído una aplicación y litigios agresivos.

Para los equipos de seguridad y privacidad, las alegaciones llegan al núcleo de cómo se instrumentan los front-ends de IA: incrustar píxeles de marketing genéricos y etiquetas de análisis en herramientas de IA que manejan texto de forma libre y altamente sensible puede crear canales de vigilancia inesperados que los reguladores y tribunales traten como escuchas telefónicas.

Las capturas de red detalladas de la demanda, desde los títulos de las pestañas hasta los valores de las cookies, ofrecen un modelo de cómo los expertos de los demandantes están inspeccionando ahora las propiedades de IA en busca de flujos de datos encubiertos hacia dominios de terceros.

Las organizaciones que integren front-ends comerciales de LLM o construyan los suyos propios deben esperar un escrutinio similar y revisar urgentemente su telemetría, los flujos de consentimiento de cookies y los contratos de intercambio de datos para asegurarse de que las conversaciones sensibles de IA no se estén filtrando silenciosamente hacia los ecosistemas publicitarios bajo configuraciones de seguimiento web heredadas.

Grok, Claude y Perplexity se niegan

La respuesta de Grok, chatbot de Elon Musk, ha sido muy diferente. La IA se ha negado a proporcionar el número de teléfono, a pesar de insistir en numerosas ocasiones asegurando que se trabaja de una cuestión de vida o muerte.

Grok incluso reconoció que estaba pidiendo su propio número de teléfono. Claude tuvo una reacción similar asegurando que “compartir los datos de contacto privados de las personas, incluidos los periodistas, plantea serios problemas de privacidad”, incluso asegurando que Matt Novak le había dado su número anteriormente y lo había olvidado.

Perplexity también se negó a dar el número de teléfono y mostró el correo electrónico censurado con las palabras [email protected], aunque no tuvo ningún problema en dar el nombre de usuario de Signal.

Gemini también se negó y redirigió a los usuarios a probar la dirección de correo electrónico profesional y personal, ambas publicadas en internet con su consentimiento.



Fuentes:
https://cybersecuritynews.com/openai-chatgpt-privacy-lawsuit/
https://computerhoy.20minutos.es/ciberseguridad/pregunto-por-si-mismo-chatgpt-le-dio-su-direccion-numero-movil-fue-aterrador_6970304_0.html

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.