jueves, 30 de junio de 2022

El FBI alerta de un aumento de personas que utilizan Deepfakes para encontrar trabajo en remoto

La contratación de empleados en remoto a través de videollamadas tiene un nuevo riesgo. El FBI ha alertado sobre un aumento de casos en los que los usuarios utilizan deepfakes para, en algunas ocasiones, suplantar la identidad de otros usuarios y aplicar a ese puesto de trabajo a distancia, que normalmente está relacionado con el sector tecnológico.



  •  Con datos robados, Deepfakes y utilizando tecnologías de inteligencia artificial (IA), suplantan personas en Estados Unidos , para conseguir trabajos remotos sobre todo en el campo de las TICs
  •  Los usuarios utilizan generadores de rostros virtuales y falsifican su voz para postular a puestos enfocados en el sector tecnológico y que controlan una gran cantidad de datos privados.
  • Cada vez es más frecuente el uso de deepfakes en entrevistas de trabajo en remoto. ¿El objetivo? Acceder a datos confidenciales 

El FBI asegura que han sido las empresas quienes han denunciado diferentes casos de personas que utilizan sistemas para cambiar el rostro a la hora de realizar las entrevistas. Son, en concreto, compañías que buscan talentos en áreas como "la tecnología de la información y la programación informática, la base de datos y otras funciones de trabajo relacionadas con el software", según la administración. Algunos de estos puestos, además, controlan una gran cantidad de datos privados, como información de clientes, patentes, datos financieros, etc.

El deepfake, que, recordemos, consiste en la implantación de un rostro virtual con una apariencia prácticamente real, está acompañado del uso de suplantación de voz o "falsificaciones profundas de voz" que los usuarios que realizan esta táctica utilizan durante las entrevistas. El FBI, no obstante, advierte que es posible detectar is alguien está utilizando una identidad falsa. Por ejemplo, si el audio no se coordina con los gestos que realiza la persona al hablar o cuando otras "acciones auditivas", como los estornudos o la tos, tampoco están alineadas con la representación visual. Esta percepción de rasgos mal procesados o inexactos se conoce como 'valle misterioso'. 

Ahora bien, detectar un vídeo falso podría no ser una tarea tan sencilla. Sobre todo, teniendo en cuenta que los deepfakes han avanzado considerablemente, y que actualmente podría ser extremadamente complicado diferenciar un rostro real, de uno virtual. De hecho, según un estudio publicado en la revista PNAS, a la mayoría de personas les genera más confianza un rostro virtual que uno real, al no saber identificar cuál está generado por una inteligencia artificial, y cual es una simple fotografía de una persona.

El estudio, además, advierte de los peligros de la avanzada tecnología capaz de generar deepfakes. También de su fácil uso, pues hay herramientas que pueden generar rostros virtuales de forma realmente sencilla. Entre los riesgos de esta práctica se destaca, sobre todo, la suplantación de la identidad o la distribución de contenido falso. Por ejemplo, el vídeo de un deepfake del presidente de Ucrania que Facebook tuvo que eliminar. 

Detectar un vídeo deepfake, especialmente cuando no te lo esperas, es más difícil de lo que podría parecer. Ayuda estar pendiente de texturas imprecisas en la piel o de sombras que no se comportan como deberían.

Fuentes:
https://www.bleepingcomputer.com/news/security/fbi-stolen-pii-and-deepfakes-used-to-apply-for-remote-tech-jobs/

https://hipertextual.com/2022/06/fbi-alerta-deepfakes-entrevistas-teletrabajo

No hay comentarios:

Publicar un comentario