El YouTuber FacetoFake aprovechó para subir a su joven canal un vídeo llamado ‘El Equipo E, con E de España’. El vídeo humorístico que ha aparecido en el canal YouTube, cuya autoría está atribuida a un grupo llamado « Face to Fake», toma de base la cabecera de la célebre serie de televisión «El Equipo A», pero sustituye los rostros de los protagonistas originales por los de los principales políticos españoles.
El canal de YouTube, que lleva 4 meses colgando vídeos, se ha valido del software DeepFaceLab para Windows, disponible de forma gratuita en GitHub. Los Deepfakes y su uso de sistemas IA y ‘machine learning’ están sorprendiendo precisamente por el enorme nivel de veracidad que están consiguiendo alcanzar. Y los niveles de peligrosidad también.
En diciembre de 2017, a pocos días de la Navidad, la red entera tembló con el nombre de ‘Deepfakes’, una técnica de síntesis de la imagen humana basada en Inteligencia Artificial que mezclaba las palabras ‘deep learning’ (aprendizaje profundo) y ‘fake’ (falso). En sí, su IA es tan potente que permite cambiarle el rostro a una persona por el de otra, pero no en una foto estática, sino en un vídeo,y ver cómo el rostro nuevo se superpone y se adapta en tiempo real al rostro real de la persona en cuestión.
El Equipo E ( con E de España [DeepFake]) - Video viral
Y es que a nadie le amarga un poquito de sana parodia y humor en unos
días en que hace mucha falta, motivo por el que esta intro
‘alternativa’ de la popular serie de los 80 ‘El Equipo A’ ha pegado el pelotazo en visitas. Porque ver a Pablo Casado, Pedro Sánchez, Pablo Iglesias, Albert Rivera y Santiago Abascal
reconvertidos en los 5 miembros de A-Team (en las primeras temporadas
tuvieron 1 acompañante femenina) es delirante y pura guasa de esas que
se destila mucho en España.Deep Learning + Fake = Deepfake
En un deepfake básicamente se cogen dos muestras de material multimedia, el vídeo o foto en el que quieres hacer la sustitución y la persona que quieres usar para sustituir a la original. Y se combinan usando técnicas de aprendizaje automático.
De esta manera, la potencia de la IA y los algoritmos de la tecnología Deepfake se encargan de cotejar los rasgos y expresiones de los dos rostros que se quieren combinar, para hacer que la persona elegida
FaceSwap
Aplicación que utiliza el deep learning para «desnudar» a mujeres
Una aplicación, llamada 'Deepnude', desapareció a las pocas horas empujada por el escándalo y ante el riesgo de sus desarrolladores de ser sepultados por multas. Sin embargo, su creación y lanzamiento fue suficiente para hacerse una idea de hasta qué punto los montajes mediante sistemas de IA han pasado en poco tiempo de estar restringidos a unos cuantos expertos y programas muy potentes a tener el potencial de caber en manos de cualquiera.
Tik Tok cuenta con la mayor base de datos de expresiones del mundo. Se trata de una red social donde sobre todo se comparte la expresión
Fawkes: programa para engañar a los sistemas de reconocimiento facial
Un equipo de científicos del Sand Lab de la Universidad de Chicago ha desarrollado un programa llamado «Fawkes», y toma su nombre de las máscaras Guy Fawkes (las famosas de «V de Vendetta»).
Fawkes tiene una efectividad del 100% en el caso de los servicios de reconocimiento facial de Microsoft (Azure Face), Amazon (Rekognition) y Face ++ (del gigante Megvii.)
Si queréis empezar a publicar fotos de forma segura y dejar de engordar las bases de datos de reconocimiento facial, el programa esta disponible de forma gratuita, tanto para MacOS como para Windows.
El programa tarda 40 segundos por foto.
Combatir Videos Falsos "Fake"
- Facebook por el momento no elimina los 'deepfakes', aunque sí que marca que son vídeos manipulados
Facebook se negó a retirar el vídeo de Pelosi aludiendo a que según las normas de su comunidad no se elimina contenido solo por ser ficticio, ya que esto limitaría en gran medida las parodias o contenidos humorísticos, aunque sí que tomó la decisión de que apareciera claramente un aviso de que ese vídeo era falso. Tampoco retiró el montaje de Zuckerberg, recogiendo así el guante. Google y por lo tanto Youtube, sí que decidieron eliminar el de Pelosi.
Estos vídeos «fake» han sido utilizados ya para atribuirle palabras y frases a políticos que nunca las han pronunciado. Afirmaciones tajantes y manipuladas que en el momento de su detección se ha viralizado por redes sociales rápidamente, complicando además las labores de los algoritmos de verificación. Las redes sociales han alzado la voz para combatir estos vídeos, pero es una tarea complicada.
En Estados Unidos, estados como Virginia o Texas han comenzado a ser pioneros en regular el uso de montajes y 'deepfakes', el primero enfocado más en su uso a nivel de vídeos falsos pornográficos y en Texas con respecto a su uso durante la campaña.
Facebook, incluso, ha reconocido haber mantenido vídeos «fakes» de dirigentes políticos en su plataforma al considerar que no son «censores», lo ha generado una gran preocupación al respecto. Otros servicios como Twitter han querido reducir su viralidad informando acerca de su contenido falso en una etiqueta. Lo controvertido, y preocupante a la vez, es que se teme que este tipo de vídeos se perfeccionen a tal calibre que vayan a emplearse para suplantar y modificar la identidad de personajes conocidos.
Reto de la Detección de Deepfakes (DFDC), una base de datos y una clasificación, junto con “financiación y premios para estimular a la industria a crear nuevas formas de detectar y evitar que los medios manipulados a través de la IA se utilicen para engañar a otros”.
Amazon forma parte de la primera edición de Deepfakes Detection Challenge, una competición que comenzará el próximo mes de diciembre, cuando Facebook publicará un conjunto de archivos con decenas de miles de vídeos, tanto reales como falsos, con un peso total de cuatro petabytes.
Pero para plataformas y medios como Facebook o Twitter, los deepfakes son el siguiente enemigo a combatir. De hecho Twitter ya está haciendo llamamientos a sus usuarios para que le ayuden a combatir esta clase de material engañoso.
IA (Inteligencia Artificial) clona tu voz después de escuchar durante 5 segundos
El documento "Transferir el aprendizaje de la verificación del orador a la síntesis de texto a voz de varios oradores" y muestras de audio están disponibles aquí: arxiv.org/abs/1806.04558 google.github.io/tacotron/publications/speaker_adaptation/ Una implementación no oficial de este documento está disponible aquí: github.com/CorentinJ/Real-Time-Voice-Cloning
No hay comentarios:
Publicar un comentario