Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1019
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
▼
2019
(Total:
102
)
-
▼
noviembre
(Total:
18
)
- Disponible nueva versión de Kali Linux, 2019.4
- Ginp: malware de Android enfocado a Bancos de España
- Se acabaron las direcciones IPv4 libres
- La gestión de los dominios .org pasa a manos privadas
- El ayuntamiento de Zaragoza víctima de un ataque d...
- Phineas Fisher publica a 2TB de datos del banco Is...
- Vulnerabilidad crítica en WhatsApp permite control...
- ATFuzzer: ataques usando USB y Bluetooth en teléfo...
- Google recolectó sin permiso datos médicos de mill...
- DeepFakes, videos manipulados con intercambios de ...
- Microsoft Defender ATP para Linux llegará en 2020
- Servidores DNS gratuitos y seguros, compatibles co...
- Expuestos datos de 7.5 millones de usuarios de Ado...
- El Gobierno Español podrá intervenir internet si a...
- Se puede hackear Alexa, Siri y Google Home a cien ...
- Ataque de ransomware a la Cadena SER y Everis
- España ordenó bloquear repositorios de GitHub de T...
- Wallapop ha sufrido "un acceso indebido a su plata...
- ► septiembre (Total: 14 )
-
▼
noviembre
(Total:
18
)
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
seguridad
(
395
)
privacidad
(
363
)
google
(
353
)
ransomware
(
338
)
vulnerabilidad
(
301
)
Malware
(
263
)
Windows
(
243
)
android
(
242
)
cve
(
235
)
tutorial
(
235
)
manual
(
220
)
software
(
201
)
hardware
(
193
)
linux
(
124
)
twitter
(
115
)
ddos
(
94
)
WhatsApp
(
90
)
Wifi
(
85
)
cifrado
(
77
)
herramientas
(
75
)
hacking
(
73
)
sysadmin
(
67
)
app
(
65
)
Networking
(
56
)
nvidia
(
52
)
ssd
(
51
)
youtube
(
50
)
adobe
(
43
)
firmware
(
42
)
office
(
41
)
hack
(
40
)
firefox
(
35
)
contraseñas
(
32
)
eventos
(
32
)
antivirus
(
31
)
juegos
(
31
)
cms
(
30
)
flash
(
28
)
anonymous
(
27
)
MAC
(
25
)
apache
(
25
)
programación
(
25
)
exploit
(
23
)
javascript
(
22
)
multimedia
(
22
)
Kernel
(
20
)
ssl
(
19
)
SeguridadWireless
(
17
)
documental
(
16
)
Forense
(
15
)
conferencia
(
15
)
Debugger
(
14
)
lizard squad
(
14
)
técnicas hacking
(
13
)
auditoría
(
12
)
delitos
(
11
)
metasploit
(
11
)
Virtualización
(
10
)
adamo
(
9
)
reversing
(
9
)
Rootkit
(
8
)
Ehn-Dev
(
7
)
MAC Adress
(
6
)
antimalware
(
6
)
oclHashcat
(
5
)
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
En el panorama en constante evolución de la seguridad de redes, OpnSense se ha convertido en una formidable solución de firewall. Nacido de...
-
Pese a que Gemini ofrece multitudes de opciones, recientemente, se ha dado a conocer una situación fuera de lo común. Hace unos días, un es...
DeepFakes, videos manipulados con intercambios de caras usando IA
miércoles, 13 de noviembre de 2019
|
Publicado por
el-brujo
|
Editar entrada
Los vídeos manipulados no son nada nuevo. Pero con las nuevas tecnologías, el realismo logrado ha permitido obtener resultados asombrosos. Los llamados «deep fakes» se han convertido en uno de los grandes desafíos de las redes sociales. Personajes famosos como Barack Obama, Donald Trump o Jennifer Lawrence han sido objeto de experimentos multimedia
que llegan incluso a confundir al espectador. En España empieza a
detectarse el impacto de esa tecnología con ejemplos como el de un vídeo
titulado «Equipo E» que parodia a los políticos
españoles. Estas secuencias son cada vez más populares para crear
«memes» que incluso, en manos malintencionadas, puede llegar a
contribuir a la propaganda. Un deepfake
es un vídeo modificado utilizando tecnología de intercambio de caras.
Se basa en machine learning, una de las rama de la Inteligencia
Artificial. Y el 'deepfake' pornográfico es un fenómeno muy real, ya que se estima que el 96% de los vídeos falsos siguen siendo de carácter pornográfico.
El YouTuber FacetoFake aprovechó para subir a su joven canal un vídeo llamado ‘El Equipo E, con E de España’. El vídeo humorístico que ha aparecido en el canal YouTube, cuya autoría está atribuida a un grupo llamado « Face to Fake», toma de base la cabecera de la célebre serie de televisión «El Equipo A», pero sustituye los rostros de los protagonistas originales por los de los principales políticos españoles.
El canal de YouTube, que lleva 4 meses colgando vídeos, se ha valido del software DeepFaceLab para Windows, disponible de forma gratuita en GitHub. Los Deepfakes y su uso de sistemas IA y ‘machine learning’ están sorprendiendo precisamente por el enorme nivel de veracidad que están consiguiendo alcanzar. Y los niveles de peligrosidad también.
En diciembre de 2017, a pocos días de la Navidad, la red entera tembló con el nombre de ‘Deepfakes’, una técnica de síntesis de la imagen humana basada en Inteligencia Artificial que mezclaba las palabras ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso). En sí, su IA es tan potente que permite cambiarle el rostro a una persona por el de otra, pero no en una foto estática, sino en un vídeo,y ver cómo el rostro nuevo se superpone y se adapta en tiempo real al rostro real de la persona en cuestión.
El Equipo E ( con E de España [DeepFake]) - Video viral
Y es que a nadie le amarga un poquito de sana parodia y humor en unos
días en que hace mucha falta, motivo por el que esta intro
‘alternativa’ de la popular serie de los 80 ‘El Equipo A’ ha pegado el pelotazo en visitas. Porque ver a Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal
reconvertidos en los 5 miembros de A-Team (en las primeras temporadas
tuvieron 1 acompañante femenina) es delirante y pura guasa de esas que
se destila mucho en España.
Un deepfake es una foto o vídeo de una persona cuyo rostro -y/o cuerpo- es sustituido por la de otra usando redes neuronales artificiales,
un conjunto de unidades, llamadas neuronas artificiales, conectadas
entre sí para transmitirse señales. Estos sistemas aprenden usando el aprendizaje automático
y se forman a sí mismos, en lugar de ser programados de forma
explícita, y sobresalen en áreas donde la detección de soluciones o
características es difícil de expresar con la programación convencional.
En un deepfake básicamente se cogen dos muestras de material multimedia, el vídeo o foto en el que quieres hacer la sustitución y la persona que quieres usar para sustituir a la original. Y se combinan usando técnicas de aprendizaje automático.
De esta manera, la potencia de la IA y los algoritmos de la tecnología Deepfake se encargan de cotejar los rasgos y expresiones de los dos rostros que se quieren combinar, para hacer que la persona elegida
Aplicación que utiliza el deep learning para «desnudar» a mujeres
Una aplicación, llamada 'Deepnude', desapareció a las pocas horas empujada por el escándalo y ante el riesgo de sus desarrolladores de ser sepultados por multas. Sin embargo, su creación y lanzamiento fue suficiente para hacerse una idea de hasta qué punto los montajes mediante sistemas de IA han pasado en poco tiempo de estar restringidos a unos cuantos expertos y programas muy potentes a tener el potencial de caber en manos de cualquiera.
Tik Tok cuenta con la mayor base de datos de expresiones del mundo. Se trata de una red social donde sobre todo se comparte la expresión
Facebook se negó a retirar el vídeo de Pelosi aludiendo a que según las normas de su comunidad no se elimina contenido solo por ser ficticio, ya que esto limitaría en gran medida las parodias o contenidos humorísticos, aunque sí que tomó la decisión de que apareciera claramente un aviso de que ese vídeo era falso. Tampoco retiró el montaje de Zuckerberg, recogiendo así el guante. Google y por lo tanto Youtube, sí que decidieron eliminar el de Pelosi.
Estos vídeos «fake» han sido utilizados ya para atribuirle palabras y frases a políticos que nunca las han pronunciado. Afirmaciones tajantes y manipuladas que en el momento de su detección se ha viralizado por redes sociales rápidamente, complicando además las labores de los algoritmos de verificación. Las redes sociales han alzado la voz para combatir estos vídeos, pero es una tarea complicada.
En Estados Unidos, estados como Virginia o Texas han comenzado a ser pioneros en regular el uso de montajes y 'deepfakes', el primero enfocado más en su uso a nivel de vídeos falsos pornográficos y en Texas con respecto a su uso durante la campaña.
Facebook, incluso, ha reconocido haber mantenido vídeos «fakes» de dirigentes políticos en su plataforma al considerar que no son «censores», lo ha generado una gran preocupación al respecto. Otros servicios como Twitter han querido reducir su viralidad informando acerca de su contenido falso en una etiqueta. Lo controvertido, y preocupante a la vez, es que se teme que este tipo de vídeos se perfeccionen a tal calibre que vayan a emplearse para suplantar y modificar la identidad de personajes conocidos.
Reto de la Detección de Deepfakes (DFDC), una base de datos y una clasificación, junto con “financiación y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a través de la IA se utilicen para engañar a otros”.
Amazon forma parte de la primera edición de Deepfakes Detection Challenge, una competición que comenzará el próximo mes de diciembre, cuando Facebook publicará un conjunto de archivos con decenas de miles de vídeos, tanto reales como falsos, con un peso total de cuatro petabytes.
Pero para plataformas y medios como Facebook o Twitter, los deepfakes son el siguiente enemigo a combatir. De hecho Twitter ya está haciendo llamamientos a sus usuarios para que le ayuden a combatir esta clase de material engañoso.
El documento "Transferir el aprendizaje de la verificación del orador a la síntesis de texto a voz de varios oradores" y muestras de audio están disponibles aquí: arxiv.org/abs/1806.04558 google.github.io/tacotron/publications/speaker_adaptation/ Una implementación no oficial de este documento está disponible aquí: github.com/CorentinJ/Real-Time-Voice-Cloning
El YouTuber FacetoFake aprovechó para subir a su joven canal un vídeo llamado ‘El Equipo E, con E de España’. El vídeo humorístico que ha aparecido en el canal YouTube, cuya autoría está atribuida a un grupo llamado « Face to Fake», toma de base la cabecera de la célebre serie de televisión «El Equipo A», pero sustituye los rostros de los protagonistas originales por los de los principales políticos españoles.
El canal de YouTube, que lleva 4 meses colgando vídeos, se ha valido del software DeepFaceLab para Windows, disponible de forma gratuita en GitHub. Los Deepfakes y su uso de sistemas IA y ‘machine learning’ están sorprendiendo precisamente por el enorme nivel de veracidad que están consiguiendo alcanzar. Y los niveles de peligrosidad también.
En diciembre de 2017, a pocos días de la Navidad, la red entera tembló con el nombre de ‘Deepfakes’, una técnica de síntesis de la imagen humana basada en Inteligencia Artificial que mezclaba las palabras ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso). En sí, su IA es tan potente que permite cambiarle el rostro a una persona por el de otra, pero no en una foto estática, sino en un vídeo,y ver cómo el rostro nuevo se superpone y se adapta en tiempo real al rostro real de la persona en cuestión.
El Equipo E ( con E de España [DeepFake]) - Video viral
Y es que a nadie le amarga un poquito de sana parodia y humor en unos
días en que hace mucha falta, motivo por el que esta intro
‘alternativa’ de la popular serie de los 80 ‘El Equipo A’ ha pegado el pelotazo en visitas. Porque ver a Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal
reconvertidos en los 5 miembros de A-Team (en las primeras temporadas
tuvieron 1 acompañante femenina) es delirante y pura guasa de esas que
se destila mucho en España.Deep Learning + Fake = Deepfake
La primera vez que escuchamos la palabra 'deepfake' fue en 2017.
Un hilo en Reddit creado por un usuario con ese nombre mostraba GIFs de
películas porno en las que se había sustituido los rostros de las
actrices originales por celebridades como Gal Gadot o Emilia Clarke.
En un deepfake básicamente se cogen dos muestras de material multimedia, el vídeo o foto en el que quieres hacer la sustitución y la persona que quieres usar para sustituir a la original. Y se combinan usando técnicas de aprendizaje automático.
De esta manera, la potencia de la IA y los algoritmos de la tecnología Deepfake se encargan de cotejar los rasgos y expresiones de los dos rostros que se quieren combinar, para hacer que la persona elegida
Un "deepfake" normalmente parte de dos vídeos: la
base que queremos modificar, y otro vídeo con la persona que queremos
insertar; el programa analiza este segundo vídeo, aprendiendo cómo la
persona habla, cierra los ojos y mueve los músculos de la cara. A
continuación, analiza el vídeo a modificar y aplica la cara; la clave es
que imita los movimientos de la persona original, incluyendo gestos,
guiños y "tics".
De todas maneras los requisitos de videos de origen y destino deben ser de alta resolución (4k webm es mejor, no se recomienda nada menor de, se requiere que las caras no estén muy lejos de la cámara y sin obstáculos. Que haya ángulos múltiples, expresiones faciales. Escenas brillantes y uniformemente iluminadas. Y las caras deben coincidir (barba, sombrero, cabello, color de piel, forma, anteojos) y se necesitan al menos 2 minutos de video de buena calidad, los videos de entrevistas funcionan bien.
FaceSwap
FaceSwap es una herramienta que utiliza el aprendizaje profundo para reconocer e intercambiar caras en imágenes y videos.
Aplicación que utiliza el deep learning para «desnudar» a mujeres
Una aplicación, llamada 'Deepnude', desapareció a las pocas horas empujada por el escándalo y ante el riesgo de sus desarrolladores de ser sepultados por multas. Sin embargo, su creación y lanzamiento fue suficiente para hacerse una idea de hasta qué punto los montajes mediante sistemas de IA han pasado en poco tiempo de estar restringidos a unos cuantos expertos y programas muy potentes a tener el potencial de caber en manos de cualquiera.
Tik Tok cuenta con la mayor base de datos de expresiones del mundo. Se trata de una red social donde sobre todo se comparte la expresión
Fawkes: programa para engañar a los sistemas de reconocimiento facial
Un equipo de científicos del Sand Lab de la Universidad de Chicago ha desarrollado un programa llamado «Fawkes», y toma su nombre de las máscaras Guy Fawkes (las famosas de «V de Vendetta»).
Fawkes tiene una efectividad del 100% en el caso de los servicios de reconocimiento facial de Microsoft (Azure Face), Amazon (Rekognition) y Face ++ (del gigante Megvii.)
Si queréis empezar a publicar fotos de forma segura y dejar de engordar las bases de datos de reconocimiento facial, el programa esta disponible de forma gratuita, tanto para MacOS como para Windows.
El programa tarda 40 segundos por foto.
Combatir Videos Falsos "Fake"
- Facebook por el momento no elimina los 'deepfakes', aunque sí que marca que son vídeos manipulados
Facebook se negó a retirar el vídeo de Pelosi aludiendo a que según las normas de su comunidad no se elimina contenido solo por ser ficticio, ya que esto limitaría en gran medida las parodias o contenidos humorísticos, aunque sí que tomó la decisión de que apareciera claramente un aviso de que ese vídeo era falso. Tampoco retiró el montaje de Zuckerberg, recogiendo así el guante. Google y por lo tanto Youtube, sí que decidieron eliminar el de Pelosi.
Estos vídeos «fake» han sido utilizados ya para atribuirle palabras y frases a políticos que nunca las han pronunciado. Afirmaciones tajantes y manipuladas que en el momento de su detección se ha viralizado por redes sociales rápidamente, complicando además las labores de los algoritmos de verificación. Las redes sociales han alzado la voz para combatir estos vídeos, pero es una tarea complicada.
En Estados Unidos, estados como Virginia o Texas han comenzado a ser pioneros en regular el uso de montajes y 'deepfakes', el primero enfocado más en su uso a nivel de vídeos falsos pornográficos y en Texas con respecto a su uso durante la campaña.
Facebook, incluso, ha reconocido haber mantenido vídeos «fakes» de dirigentes políticos en su plataforma al considerar que no son «censores», lo ha generado una gran preocupación al respecto. Otros servicios como Twitter han querido reducir su viralidad informando acerca de su contenido falso en una etiqueta. Lo controvertido, y preocupante a la vez, es que se teme que este tipo de vídeos se perfeccionen a tal calibre que vayan a emplearse para suplantar y modificar la identidad de personajes conocidos.
Reto de la Detección de Deepfakes (DFDC), una base de datos y una clasificación, junto con “financiación y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a través de la IA se utilicen para engañar a otros”.
Amazon forma parte de la primera edición de Deepfakes Detection Challenge, una competición que comenzará el próximo mes de diciembre, cuando Facebook publicará un conjunto de archivos con decenas de miles de vídeos, tanto reales como falsos, con un peso total de cuatro petabytes.
Pero para plataformas y medios como Facebook o Twitter, los deepfakes son el siguiente enemigo a combatir. De hecho Twitter ya está haciendo llamamientos a sus usuarios para que le ayuden a combatir esta clase de material engañoso.
IA (Inteligencia Artificial) clona tu voz después de escuchar durante 5 segundos
El documento "Transferir el aprendizaje de la verificación del orador a la síntesis de texto a voz de varios oradores" y muestras de audio están disponibles aquí: arxiv.org/abs/1806.04558 google.github.io/tacotron/publications/speaker_adaptation/ Una implementación no oficial de este documento está disponible aquí: github.com/CorentinJ/Real-Time-Voice-Cloning
Algunas opciones para crear deepfakes en vídeo
Enviar por correo electrónico
Escribe un blog
Compartir en X
Compartir con Facebook
Compartir en Pinterest
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.