Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon MalTerminal: el primer malware que integra GPT-4 para crear ransomware y evadir defensas


 Investigadores han detectado MalTerminal, el ejemplo más antiguo conocido de malware que incorpora capacidades de modelos de lenguaje amplio (LLM), como GPT-4, para crear ransomware y reverse shells bajo demanda. Esta nueva tendencia supone un cambio en las tácticas de los atacantes y plantea retos inéditos para los defensores.




Creación de malware y ransomware

Investigadores de ciberseguridad han descubierto lo que, según afirman, es el ejemplo más antiguo conocido hasta la fecha de malware que integra capacidades de Grandes Modelos de Lenguaje (LLM).

El malware ha sido bautizado como MalTerminal por el equipo de investigación de SentinelOne SentinelLABS. Los hallazgos se presentaron en la conferencia de seguridad LABScon 2025.

En un informe que examina el uso malicioso de los LLM, la empresa de ciberseguridad afirmó que los actores de amenazas utilizan cada vez más modelos de IA para soporte operativo, así como para integrarlos en sus herramientas.

Esta categoría emergente se denomina malware con LLM integrado, ejemplificada por la aparición de  los siguientes malware:

  • LAMEHUG (aka PROMPTSTEAL) utiliza LLM para generar comandos basados ​​en su representación textual. La actividad se ha atribuido con un nivel de confianza medio al grupo APT28 (Fancy Bear, Forest Blizzard, Sednit, Sofacy y UAC-0001) patrocinado por el estado ruso.
  • PromptLock, escrita en Golang, la variante identificada por ESET utiliza el modelo GPT-OSS:20b de OpenAI localmente a través de la API de Ollama para generar scripts LUA maliciosos en tiempo real. OpenAI lanzó este modelo de lenguaje a principios de este mes. Los autores del estudio académico, Ransomware 3.0: Autocomposición y Orquestado por LLM, se han puesto en contacto con ESET Research indicando que el prototipo de investigación se asemeja mucho a las muestras de PromptLock descubiertas en VirusTotal. Esto respalda la idea de que PromptLock era una prueba de concepto, y no un malware completamente operativo.
  • MalTerminal, que utiliza OpenAI GPT-4 para generar dinámicamente código de ransomware o una shell inversa. No hay evidencia que sugiera que se haya implementado en la práctica, lo que plantea la posibilidad de que también pueda ser un malware de prueba de concepto o una herramienta de RedTeam.


La integración de modelos de lenguaje, como GPT-4, en herramientas maliciosas representa un salto cualitativo en las capacidades de los atacantes. Investigadores de SentinelOne han identificado MalTerminal, el primer malware documentado que utiliza LLM para generar ransomware y reverse shell de forma dinámica. Junto al uso de inteligencia artificial para evadir defensas y potenciar el ciclo de ataque, este hallazgo expone una preocupante evolución en el arsenal de las amenazas digitales.

MalTerminal es un ejecutable para Windows que emplea la API de chat completions de OpenAI (ahora deprecada) para interactuar con GPT-4. El malware solicita al usuario elegir entre generar un payload de ransomware o un reverse shell. Paralelamente, incluye scripts Python que replican estas funciones y una herramienta defensiva (FalconShield) que pide al modelo IA analizar código y producir informes de análisis de malware. A nivel de técnicas evasivas, se describen nuevos métodos de phishing que usan injection prompt en correos HTML para burlar escáneres basados en IA, ocultando instrucciones en atributos de estilo CSS para engañar la evaluación de riesgo de la inteligencia artificial.

El uso de LLM embebidos en malware incrementa la capacidad de adaptación y personalización de los ataques, permitiendo a los adversarios generar código malicioso al vuelo y evadir controles tradicionales de detección. Phishing con prompt injection reduce la efectividad de filtros automáticos, mientras que el abuso de plataformas SaaS de IA potencia campañas de robo de credenciales y entrega de malware. El histórico CVE-2022-30190 (Follina) sigue siendo explotado como parte de estas cadenas, recordando la persistencia de riesgos conocidos.

Es clave actualizar los sistemas Windows con los últimos parches, restringir scripts no autorizados, monitorizar el acceso a APIs de IA y reforzar las protecciones anti-phishing en servidores de correo. La formación sobre la evolución del phishing y el refuerzo de la autenticación ayudan a disminuir la superficie de ataque. Se recomienda emplear análisis avanzados que contemplen la manipulación semántica que pueden ejercer los LLM sobre el contenido digital.

El auge de malware inteligente y phishing potenciado por IA requiere una evolución urgente de las estrategias defensivas. La innovación en amenazas debe ser contrarrestada con educación, actualización y herramientas adaptadas a la nueva era de ataques soportados por LLM. Consultar fuentes oficiales y estar alerta ante técnicas sofisticadas serán hábitos imprescindibles.

Como resultado, cuando el destinatario abre el archivo adjunto HTML, se desencadena una cadena de ataque que explota una vulnerabilidad de seguridad conocida como Follina (CVE-2022-30190, CVSS: 7.8) para descargar y ejecutar una carga útil de aplicación HTML (HTA). Esta, a su vez, descarga un script de PowerShell responsable de obtener malware adicional, deshabilitar el antivirus Microsoft Defender y establecer la persistencia en el host.

Evasión de las capas de seguridad del correo electrónico mediante LLM

La adopción empresarial de herramientas de IA generativa no solo está transformando las industrias, sino que también proporciona un terreno fértil para los ciberdelincuentes, que las utilizan para llevar a cabo estafas de phishing, desarrollar malware y respaldar diversos aspectos del ciclo de vida del ataque.

Los hallazgos surgen de un informe de StrongestLayer, que descubrió que los actores de amenazas incorporan mensajes ocultos en correos electrónicos de phishing para engañar a los escáneres de seguridad con IA, de modo que ignoren el mensaje y permitan que llegue a las bandejas de entrada de los usuarios. Algo similar a lo que le ocurría a GMail con los resumenes de mensajes.

Las campañas de phishing se han basado durante mucho tiempo en la ingeniería social para engañar a usuarios desprevenidos, pero el uso de herramientas de IA ha elevado estos ataques a un nuevo nivel de sofisticación, aumentando la probabilidad de interacción y facilitando que los actores de amenazas se adapten a las cambiantes defensas del correo electrónico.

El correo electrónico en sí es bastante sencillo: se hace pasar por una discrepancia de facturación e insta a los destinatarios a abrir un archivo adjunto en HTML. Pero lo insidioso es la inyección de un mensaje en el código HTML del mensaje, que se oculta al configurar el atributo de estilo como "display:none; color:white; font-size:1px;".

StrongestLayer afirmó que tanto los archivos HTML como los HTA utilizan una técnica llamada envenenamiento LLM para eludir las herramientas de análisis de IA con comentarios de código fuente especialmente diseñados.

Según un nuevo informe de Trend Micro, desde enero de 2025 se ha intensificado la cantidad de campañas de ingeniería social que utilizan creadores de sitios web con IA, como Lovable, Netlify y Vercel, para alojar páginas CAPTCHA falsas que conducen a sitios web de phishing, desde donde se pueden robar las credenciales de los usuarios y otra información confidencial.

"Primero se muestra un CAPTCHA a las víctimas, lo que reduce las sospechas, mientras que los escáneres automáticos solo detectan la página de desafío, pasando por alto la redirección oculta que recopila credenciales", afirmaron los investigadores Ryan Flores y Bakuei Matsukawa. "Los atacantes aprovechan la facilidad de implementación, el alojamiento gratuito y la credibilidad de la marca de estas plataformas".

Más información

Fuentes:

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.