Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Microsoft ignoró avisos sobre un exploit de DALL-E 3 que pudo influir en los deepfakes sexuales de Taylor Swift


Un líder del departamento de IA de Microsoft afirma que DALL-E 3, de OpenAI, cuenta con vulnerabilidades que permiten a los usuarios crear imágenes sexualmente explícitas similares a las de Taylor Swift que se viralizaron hace unos días. Según recoge GeekWire, el ingeniero, Shane Jones, quiso informar públicamente de este problema, pero el equipo legal de la compañía lo impidió.





  •  El ingeniero que advirtió sobre la vulnerabilidad dice que Microsoft le impidió compartir sus preocupaciones públicamente. 

Jones, quien ha llevado este asunto al Capitolio, dice en una carta dirigida a variaros senadores, y a la que ha podido acceder el citado medio, que llegó a la conclusión de que “DALL·E 3 representaba un riesgo para la seguridad pública y debería retirarse del uso público hasta que OpenAI pudiera abordar los riesgos asociados con este modelo”.


El ingeniero asegura que descubrió la vulnerabilidad a principios de diciembre, y que inmediatamente informó a Microsoft a través del proceso de informes internos de la compañía. “Informé el problema y ese mismo día recibí la siguiente respuesta, que compartí con mi equipo de liderazgo: “Monitoreamos Microsoft corpnet y las cuentas de usuario de Microsoft para detectar amenazas a la seguridad cibernética. Este informe no parece afectar nada de lo anterior”. La compañía le sugirió enviar “sus comentarios a través del sitio web de OpenAI” y cerró el caso.


Curiosamente, los deepfakes sexuales de Taylor Swift aparecieron semanas después de que Jones descubriera esta vulnerabilidad en DALL-E 3. Las imágenes de la cantante generadas por IA que han circulado en X (Twitter) parecen estar creadas con una herramienta propia de Microsoft, Designer, que utiliza la tecnología de OpenAI. No obstante, no se ha demostrado una relación entre este exploit y los deepfakes de la artista

El ingeniero de Microsoft hizo pública su preocupación sobre DALL-E 3

Días más tarde de informar a Microsoft, Jones decidió compartir a través de LinkedIn una carta pública dirigida a los responsables de OpenAI en la que alertaba sobre esta vulnerabilidad e insistía en “suspender la disponibilidad de DALL·E 3”.

El ingeniero subraya que informó a Microsoft instantes después de publicar el contenido, y que el departamento legal de la compañía se puso en contacto con él para que eliminara la publicación. Microsoft le dijo a Jones que harían “un seguimiento con su justificación específica para la solicitud de eliminación a través de correo electrónico muy pronto”, pero el ingeniero nunca recibió ese mail.

Jones dice en la carta enviada a los senadores que pidió a Microsoft explicaciones sobre por qué le obligaron a eliminar su publicación. También le dijo a la compañía que se ofrecía a ayudar a solucionar la vulnerabilidad y a “brindar ideas para que la tecnología de generación de imágenes por IA sea más segura”. Pero que el departamento legal de Microsoft todavía no le ha respondido.

Microsoft y OpenAI responden

En un comunicado enviado a Engadget tras la noticia publicada en GeekWire, Microsoft afirma que investigaron de inmediato el informe que compartió el ingeniero, y que “la técnica que compartió no elude sus sistemas de seguridad”. La compañía también ha destacado que informó de inmediato a OpenAI.

“Dado que su informe se refería a un producto OpenAI, lo alentamos a informar a través de los canales de informes estándar de OpenAI y uno de nuestros líderes de producto senior compartió los comentarios del empleado con OpenAI, quien investigó el asunto de inmediato.

Al mismo tiempo, nuestros equipos investigaron y confirmaron que las técnicas reportadas no eludieron nuestros filtros de seguridad en ninguna de nuestras soluciones de generación de imágenes impulsadas por IA. Los comentarios de los empleados son una parte fundamental de nuestra cultura y nos estamos conectando con este colega para abordar cualquier inquietud restante que pueda tener”.

Microsoft

Por su parte, un portavoz de OpenAI ha respondido a los comentarios de GeekWire, alegando que la compañía investigó el informe del empleado de Microsoft en cuanto lo recibieron, y que OpenAI “confirmó que la técnica que compartió no pasa por alto los sistemas de seguridad”.


Fuentes:
https://hipertextual.com/2024/01/microsoft-ignoro-avisos-sobre-un-exploit-de-dall-e3-que-pudo-influir-en-los-deepfakes-sexuales-de-taylor-swift 




0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.