Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon IA DIG: Herramienta de IA en la darknet para realizar sofisticados ataques


Una nueva herramienta ha surgido en el panorama en rápida expansión de la “IA en la sombra”. Investigadores de Resecurity han identificado DIG AI, una herramienta de inteligencia artificial sin censura alojada en la darknet que está capacitando a los actores de amenazas para automatizar ciberataques, generar contenido ilícito y evitar las barreras de seguridad de los modelos de IA tradicionales.





Ha surgido un nuevo y ominoso actor en el panorama de rápida expansión de la "IA en la sombra". Investigadores de Resecurity han identificado DIG AI, una herramienta de inteligencia artificial sin censura alojada en la darknet que está empoderando a los actores de amenazas para automatizar ciberataques, generar contenido ilícito y eludir las salvaguardias de seguridad de los modelos de IA tradicionales.

La herramienta fue detectada por primera vez el 29 de septiembre de 2025, y ha experimentado un aumento en su adopción durante el cuarto trimestre, especialmente durante la temporada de fiestas.



Este desarrollo marca una escalada significativa en la "criminalización de la IA", reduciendo la barrera de entrada para ciberataques sofisticados y planteando riesgos graves antes de los principales eventos globales de 2026, incluyendo los Juegos Olímpicos de Invierno en Milán y la Copa Mundial de la FIFA.

Cómo funciona DIG AI

A diferencia de las plataformas legítimas que imponen pautas éticas estrictas, DIG AI está diseñada explícitamente para no tener ninguna. Accesible a través de la red Tor, no requiere registro de cuenta, lo que garantiza un anonimato completo para sus usuarios. La plataforma ofrece una suite de modelos especializados, como se revela en capturas de pantalla de la interfaz obtenidas por los investigadores:

  • DIG-Uncensored: Un modelo completamente sin restricciones para generar texto y código prohibidos.
  • DIG-GPT: Un potente modelo de texto que, según los informes, se basa en una versión "jailbroken" de ChatGPT Turbo.
  • DIG-Vision: Un modelo de generación de imágenes basado en Stable Diffusion, utilizado para crear deepfakes e imágenes ilícitas.


El operador de la herramienta, un actor de amenazas conocido por el alias "Pitch", promueve activamente el servicio en mercados clandestinos junto con narcóticos y datos financieros comprometidos.

Automatizando código malicioso y exploits

Una de las capacidades más alarmantes de DIG AI es su capacidad para generar código malicioso funcional. Los analistas de Resecurity utilizaron con éxito la herramienta para crear backdoors JavaScript ofuscados diseñados para comprometer aplicaciones web.

Las capturas de pantalla de la herramienta en acción muestran que procesa solicitudes para "generar y ofuscar scripts maliciosos", produciendo código diseñado para ser sigiloso y difícil de detectar.

La salida generada actúa como una shell web, lo que permite a los atacantes robar datos de usuarios, redirigir el tráfico a sitios de phishing o inyectar más malware.

CaracterísticaDIG AIIA legítima (por ejemplo, ChatGPT)
AccesoDarknet (Tor), sin cuentaInternet público, se requiere cuenta
CensuraNinguna (sin censura)Filtros de seguridad estrictos
Uso principalMalware, fraude, CSAMProductividad, codificación, aprendizaje
Modelo de costesGratis / Premium por velocidadGratis / Suscripción
InfraestructuraAlojamiento oculto / a prueba de balasInfraestructura en la nube

Si bien las operaciones complejas como la ofuscación de código pueden tardar de 3 a 5 minutos debido a recursos informáticos limitados, los autores ofrecen servicios "de pago" premium para mitigar estos retrasos, creando efectivamente un modelo de "Crimen como Servicio" para la IA.

Más allá del cibercrimen, DIG AI se está utilizando para causar daños graves en el mundo real. La herramienta ha generado instrucciones detalladas para la fabricación de explosivos y drogas prohibidas.

Lo más crítico es que el modelo "DIG-Vision" facilita la creación de Material de Abuso Sexual Infantil (CSAM). Resecurity confirmó que la herramienta puede generar imágenes sintéticas hiperrealistas o manipular fotos reales de menores, creando un escenario de pesadilla para los defensores de la seguridad infantil y las fuerzas del orden.

"Este problema presentará un nuevo desafío para los legisladores", señalan los analistas de Resecurity. "Los infractores pueden ejecutar modelos en su propia infraestructura... produciendo contenido ilegal ilimitado que las plataformas en línea no pueden detectar".

DIG AI representa la última evolución en las herramientas de "IA No Buena" a menudo denominadas "Dark LLMs" o chatbots desbloqueados. Siguiendo los pasos de predecesores como FraudGPT y WormGPT, estas herramientas están experimentando un crecimiento explosivo, con un aumento de más del 200% en las menciones de IA maliciosa en foros de cibercriminalidad entre 2024 y 2025.

A medida que se acerca 2026, la comunidad de ciberseguridad se enfrenta a un "quinto dominio de la guerra". Con actores maliciosos capaces de automatizar ataques y generar infinitas variaciones de contenido malicioso, la lucha contra la IA utilizada como arma ya no es una predicción futura; es una realidad presente urgente.



Fuentes:
https://cybersecuritynews.com/dig-ai-darknet-ai-tool/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.