Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Una explosión en el Pentágono creada por inteligencia artificial causa pánico en la bolsa


Una imagen falsa de una explosión cerca del Pentágono corrió ayer como la pólvora en redes sociales y ha causado una breve caída de la bolsa de EEUU. Las autoridades locales han desmentido la noticia y todo apunta a que la imagen ha sido creada con una inteligencia artificial, aunque no se sabe cuál es su origen exacto.


 


  • Una imagen de una explosión en el Pentágono generada por inteligencia artificial causa una caída breve en la bolsa de Nueva York. Sospechan que podría ser desinformación rusa

 La imagen muestra una enorme columna de humo negro saliendo de un edificio próximo al Pentágono, situado en la localidad de Arlington, en Virginia. Tanto el Departamento de Defensa de los EEUU como el cuerpo de bomberos de Arlington han desmentido la información.

Una imagen falsa con consecuencias reales

Según informa CNN, la noticia ha provocado una caída momentánea de la bolsa estadounidense poco después de que comenzara a circular en Twitter. 



 “El Promedio Industrial Dow Jones cayó unos 80 puntos entre las 10:06 y las 10:10, recuperándose totalmente a las 10:13. Del mismo modo, el índice más amplio S&P 500 pasó de subir un 0,02% a las 10:06 a bajar un 0,15% a las 10:09. A las 10:11, el índice volvía a estar en positivo”, indica el medio norteamericano.

La noticia se fraguó en Twitter

CNN ha preguntado a Hany Farid, profesor de la Universidad de California en Berkeley y experto forense digital, por estas imágenes y su conclusión es que presenta indicios de haber sido creada por una IA. "Esta imagen muestra signos típicos de haber sido sintetizada por IA: hay errores estructurales en el edificio y la valla que no se verían si, por ejemplo, alguien añadiera humo a una foto existente", explica Farid.

Aunque no se sabe cuál es la fuente original de la imagen, muchas cuentas verificadas de Twitter se han hecho eco de la noticia, incluida una que, como apunta CNN, decía estar relacionada con Bloomberg News. Ahora, Twitter ha suspendido la cuenta, sin que haya constancia de quién está detrás ni de dónde procede la imagen.

 También medios relevantes como la cadena de televisión india, Republic TV, que mostró la imagen falsa en su emisión citando como fuente el medio ruso RT. Aunque luego tuvo que retractarse al comprobar que el incidente no había sucedido en realidad. "Republic ha emitido la noticia de una posible explosión cerca del Pentágono citando un post y una foto tuiteados por RT […]. RT ha borrado el post y Republic ha retirado la noticia", publicó el medio indio en un tuit.

Lo que ha pasado deja en entredicho la política de verificación de cuentas recién estrenada por Twitter. Hasta el mes pasado, Twitter concedía distintivos azules a los usuarios cuya identidad había sido verificada. Sin embargo, ahora, el programa Twitter Blue, puesto en marcha el mes pasado, permite a cualquier usuario pagar ocho dólares al mes por recibir esta verificación. Esto abre la puerta a que se puedan crear perfiles verificados que suplantan la identidad de figuras públicas, funcionarios del Gobierno y medios de comunicación.

El fin de la realidad

Como explicamos en el episodio de Control Z: El fin de la realidad, tanto las fotos como los vídeos (ya sean grabados o en vivo, como las videoconferencias) dejarán de ser en poco tiempo una prueba documental fiable ante nadie. Esta tecnología se puede usar para el bien —algunos dicen que es el salto creativo más grande que ha dado la humanidad desde el siglo XIX— o para el mal, creando imágenes que sirvan para inculpar a un inocente de un crimen o para mostrar situaciones inventadas con las que acosar a adolescentes en el instituto.

 Las nuevas versiones de inteligencias artificiales generativas como Midjourney o Stable Diffusion ya son capaces de convertir texto en imágenes de un fotorrealismo extraordinario. Ahora mismo ya es prácticamente imposible distinguir las fotos generadas por IA de las reales.

Las IA que generan vídeo a partir de texto van un poco más retrasadas, y las nuevas versiones de programas como Runway no han alcanzado todavía el realismo de los de foto. Los expertos que consultamos para producir El fin de la realidad, auguraban que en 10 años seríamos capaces de crear películas como las de Hollywood desde nuestro ordenador casero, aunque esas previsiones de tiempo no paran de recortarse. 

 Uno de los expertos consultados fue Tom Graham, CEO de Metaphysic, una de las empresas más punteras en inteligencia artificial generativa del planeta y creador del famoso deepfake de Tom Cruise en TikTok o el Elvis resucitado que gana America's Got Talent. Graham participó recientemente en una entrevista para TED con su fundador, Chris Anderson, que tuvo lugar en el gran escenario del Centro de Convenciones de Vancouver, Canadá.

"Parece que vamos a tener que acostumbrarnos a un mundo en el que ni nosotros ni nuestros hijos podremos confiar en la evidencia de nuestros ojos", dijo Gaham mientras su rostro se transformaba en el de Anderson en tiempo real. El contraste entre sus palabras y lo que estaba pasando en el escenario fue impactante y nos demuestra que crear vídeo indistinguible de la realidad en directo también es ya posible

Fuentes:
https://www.elconfidencial.com/tecnologia/novaceno/2023-05-23/pentagono-fake-inteligencia-arficial_3634851/

https://www.bloomberg.com/news/articles/2023-05-22/fake-ai-photo-of-pentagon-blast-goes-viral-trips-stocks-briefly


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.