Productos FTTH

Tienda FFTH desde 2004

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Google: Cibercriminales aprovecharon la IA para crear un exploit zero-day en herramienta de administración web


Investigadores de Google detectaron un exploit de día cero, probablemente creado con IA, diseñado para evadir la autenticación de dos factores en una herramienta de administración web. Este incidente resalta una tendencia creciente donde actores maliciosos de países como China, Corea del Norte y Rusia utilizan modelos de lenguaje y clonación de voz para automatizar ataques. Google advierte que los cibercriminales están "industrializando" el acceso a modelos de IA premium para optimizar la búsqueda de vulnerabilidades y el desarrollo de malware.



Los investigadores del Grupo de Inteligencia de Amenazas de Google (GTIG) afirman que es probable que un exploit de día cero dirigido a una popular herramienta de administración web de código abierto fuera generado mediante IA.

El exploit podría aprovecharse para evadir la protección de autenticación de dos factores (2FA) en una herramienta de administración de sistemas basada en la web y de código abierto que permanece anónima.

Aunque el ataque fue frustrado antes de la fase de explotación masiva, el incidente demuestra que los actores de amenazas dependen cada vez más de la asistencia de la IA para sus esfuerzos de descubrimiento y explotación de vulnerabilidades.

Basándose en la estructura y el contenido del código de exploit en Python, Google tiene una alta confianza en que el adversario utilizó un modelo de IA para encontrar y armar la vulnerabilidad.

"Por ejemplo, el script contiene una abundancia de docstrings educativos, incluyendo una puntuación CVSS alucinada, y utiliza un formato Pythonic estructurado de libro de texto altamente característico de los datos de entrenamiento de los LLM", afirma GTIG en un informe hoy.

No está claro qué modelo de lenguaje extenso (LLM) se utilizó para la tarea maliciosa, pero Google descarta la posibilidad de que Gemini estuviera involucrado en el proceso.

Evidencia adicional que sugiere el uso de herramientas LLM en el proceso de descubrimiento es la naturaleza del fallo: un error de lógica semántica de alto nivel en el que los sistemas de IA destacan identificando, en lugar de problemas de corrupción de memoria o saneamiento de entradas que normalmente se descubren mediante fuzzing o análisis estático.


Fuente: Google

Google notificó al desarrollador del software sobre la amenaza significativa y tomó medidas oportunas para interrumpir el ataque.

“Por primera vez, GTIG ha identificado a un actor de amenazas que utiliza un exploit de día cero que creemos que fue desarrollado con IA”, afirman los investigadores de GTIG.

Aparte de este caso, Google señala que hackers chinos y norcoreanos, como APT27, APT45, UNC2814, UNC5673 y UNC6201, han estado utilizando modelos de IA para el descubrimiento de vulnerabilidades y el desarrollo de exploits, continuando la tendencia observada en el informe de febrero.

También se observó que actores vinculados a Rusia utilizaban código señuelo generado por IA para ofuscar malware como CANFAIL y LONGSTREAM.



Google también ha destacado una operación rusa con el nombre en clave “Overload”, donde actores de amenazas de ingeniería social utilizaron la clonación de voz por IA para suplantar a periodistas reales en videos falsos que promovían la narrativa anti-Ucrania.

El backdoor PromptSpy para Android, documentado por ESET a principios de este año, también se destaca en el informe de Google por su integración con las APIs de Gemini para la interacción autónoma con el dispositivo.

Sin embargo, Google también encontró un módulo de agente autónomo llamado "GeminiAutomationAgent" que utiliza un prompt predefinido para permitir que el malware interactúe con el dispositivo de forma automatizada.

Según los investigadores, la función del prompt es asignar una persona benigna para que pueda evadir las funciones de seguridad del LLM. El objetivo es calcular la geometría de los límites de la interfaz de usuario, que PromptSpy podría utilizar para interactuar con el dispositivo de múltiples maneras.

Además, el malware hace uso de capacidades basadas en IA para repetir la autenticación en el dispositivo, ya sea en forma de patrón de bloqueo o un PIN, afirman los investigadores de Google.

La empresa advierte que los actores de amenazas están ahora industrializando el acceso a modelos de IA premium utilizando creación automatizada de cuentas, relés proxy e infraestructura de agrupación de cuentas.

Fuente:
BleepingComputer

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.