Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Tres segundos son suficientes para clonar tu voz con IA: así es como lo hacen los hackers para lanzar la estafa perfecta por WhatsApp o llamada


Tres segundos de audio bastan para que la IA clone tu voz y los hackers la usen en estafas por WhatsApp o llamadas, engañando a tus contactos con mensajes falsos.



Triste pero cierto. Tres segundos de audio son suficientes para que una IA se convierta en tu gemelo de voz y los ciberdelincuentes engañen a tus seres queridos.

Este es el tiempo que necesita una inteligencia artificial para clonar tu voz con una precisión del 85%. Ya no necesitan horas de grabaciones ni ser un experto en edición de sonido.

Ese vídeo que subiste ayer a tus historias de Instagram e incluso lo que grabaste en tu contestador del móvil es material más que suficiente para que un algoritmo aprenda tu tono, tu cadencia y hasta tus muletillas.

Los investigadores de seguridad aseguran que se ha cruzado el umbral de lo indistinguible: el 70% de la gente ya no es capaz de diferenciar entre una voz humana y una generada por IA.

Esta es la gran baza para los hackers, que están dejando de lado los correos de phishing para pasar a un tipo de ataque más emocional y directo: las llamadas de emergencia falsas. Si escuchas a tu hijo o a tu pareja llorando al otro lado del teléfono pidiendo ayuda, tu cerebro entra en modo pánico y dejas de analizar si lo que oyes es real o es una estafa.

Y lo cierto es que no hace falta hacer uso de herramientas complejas o descargar programas ilegales. Nombres como ElevenLabs lideran el sector legal con una tecnología capaz de clonar voces en 29 idiomas diferentes. Hay otras plataformas como Resemble AI que lo consiguen con apenas 10 segundos de muestra.

Sin embargo, el problema no son las herramientas en sí, que tienen fines legítimos, sino cómo los estafadores las utilizan o recurren a versiones de código abierto en la dark web donde no existe ningún tipo de control.

Así es como consiguen estafarte: apelando a los sentimientos

Aprovechan nuestra vulnerabilidad más básica. Los criminales recogen un clip de voz de redes sociales, lo clonan y te llaman fingiendo un accidente o un secuestro, alertándote simplemente que han tenido un golpe con el coche y que necesitan dinero para un taxi.

Las cifras hablan de que el 77% de las personas que reciben una llamada con una voz clonada termina perdiendo dinero. Y no es poco: hablamos de pérdidas de hasta 15.000 euros en llamadas donde la víctima estaba convencida de estar hablando con su propia hija.

Pero esto no es todo. Periodistas de la BBC y de Business Insider ya han demostrado que es posible entrar en cuentas bancarias reales usando voces clonadas por unos pocos euros al mes.

Para que te hagas una idea, muchos bancos actuales, para evitar que tengas que recordar códigos o para hacerlo más fácil, activan la biometría de voz. Cuando llamas por teléfono para hacer una transferencia o consultar tu saldo, el sistema te pide que digas una frase específica, por ejemplo: "En el banco [Nombre], mi voz es mi contraseña".

El banco tiene grabada tu huella de voz y, en teoría, solo tú puedes abrir esa puerta hablando. Lo que demostraron es que la IA actual no hace una imitación que no cuela, sino que clona la frecuencia exacta de tu voz.

Cuando llamaron al banco y pusieron la grabación de la IA frente al teléfono, el sistema del banco creyó que era la persona real. La IA imita tan bien los armónicos y el tono que el ordenador del banco no encuentra diferencias y le da acceso total a la cuenta del cliente al hacker. Todo esto por uno 5 o 10 euros al mes.

Sam Altman, CEO de OpenAI, ya ha alertado de esto. En una conferencia reciente comentó lo siguiente: "La autenticación por voz es una locura en este momento. La IA ya la ha derrotado por completo".

Ante esta situación, la protección pasa por volver a lo analógico y a la desconfianza sana. La primera recomendación de los expertos es establecer una palabra clave familiar. Si recibes una llamada de un familiar en un problema que parece grave, pídele esa palabra.

Además, si recibes una llamada sospechosa, cuelga de inmediato y llama tú al número que tengas guardado en tu agenda; nunca devuelvas la llamada al número desde el que te contactaron, ya que los hackers pueden falsear el identificador de llamadas.



Fuentes:
https://computerhoy.20minutos.es/ciberseguridad/tres-segundos-son-suficientes-para-clonar-tu-voz-con-ia-asi-es-como-hacen-los-hackers-para-lanzar-estafa-perfecta-por-whatsapp-llamada_6936151_0.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.