Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Kali Linux mejora las pruebas de penetración con IA usando Ollama local, 5ire y el servidor MCP Kali


El equipo de Kali Linux ha publicado una nueva entrada en su creciente serie de seguridad impulsada por LLM, eliminando esta vez toda dependencia de servicios en la nube de terceros al ejecutar modelos de lenguaje grandes completamente en hardware local. La guía demuestra cómo los profesionales de la seguridad pueden utilizar lenguaje natural para operar herramientas de pruebas de penetración, todo procesado en las instalaciones, sin que los datos salgan de la red. 




El equipo de Kali Linux ha publicado una nueva entrada en su creciente serie de seguridad impulsada por LLM, esta vez eliminando toda dependencia de servicios en la nube de terceros al ejecutar modelos de lenguaje grandes completamente en hardware local.

La guía demuestra cómo los profesionales de la seguridad pueden usar lenguaje natural para controlar herramientas de pruebas de penetración, todo procesado en las instalaciones, sin que los datos salgan de la máquina.

Las preocupaciones sobre privacidad y seguridad operativa han convertido durante mucho tiempo a las herramientas de IA dependientes de la nube en un riesgo en entornos sensibles de pruebas de penetración automatizadas. La nueva guía de Kali Linux aborda esto directamente al mostrar una pila completamente autohospedada en la que el LLM, el servidor de contexto del modelo y el cliente GUI se ejecutan localmente.

La configuración requiere una GPU NVIDIA con soporte para CUDA, una limitación práctica que la guía reconoce desde el principio: el costo está en la adquisición de hardware y los gastos de funcionamiento, no en tarifas de suscripción.


 

El hardware de referencia utilizado es una NVIDIA GeForce GTX 1060 con 6 GB de VRAM, una GPU de consumo de gama media que es capaz pero no excesiva.

 

La guía instala los controladores propietarios no libres de NVIDIA para habilitar la aceleración CUDA, reemplazando el controlador de código abierto Nouveau, que carece del soporte de cómputo necesario para la inferencia local de LLM. Después de reiniciar, nvidia-smi confirma que la Versión del Controlador 550.163.01 y la Versión de CUDA 12.4 están operativas.

Ollama como Motor de LLM Local

La columna vertebral de la pila es Ollama, un envoltorio de llama.cpp que simplifica la descarga y el servicio de modelos de lenguaje de pesos abiertos. Se instala mediante la extracción manual de su tarball Linux AMD64 y se configura como un servicio systemd, ejecutándose persistentemente en segundo plano al inicio.

Se descargaron tres modelos con soporte nativo para llamadas a herramientas para su evaluación: llama3.1:8b (4.9 GB), llama3.2:3b (2.0 GB) y qwen3:4b (2.5 GB), todos dimensionados para ajustarse a la restricción de 6 GB de VRAM. El soporte para herramientas es un requisito estricto aquí; sin él, el LLM no puede invocar comandos externos a través de la capa MCP.

MCP-Kali-Server Conecta la IA con la Terminal

El Protocolo de Contexto del Modelo (MCP) es lo que transforma un LLM conversacional en una herramienta de seguridad activa. El paquete mcp-kali-server, ya disponible en los repositorios de Kali, actúa como un puente API ligero que expone un servidor Flask local en 127.0.0.1:5000.

Al iniciarse, verifica la presencia de herramientas como nmap, gobuster, dirb, nikto y otras. Un binario compañero mcp-server se conecta a esta API y presenta las herramientas disponibles al cliente MCP.

El servidor también admite tareas de pruebas de penetración asistidas por IA, como pruebas de aplicaciones web, resolución de desafíos CTF e interacción con plataformas como Hack The Box o TryHackMe.

5ire Cierra la Brecha entre Ollama y MCP

Dado que Ollama en sí no admite MCP de forma nativa, se necesita un puente cliente. La guía selecciona 5ire, un asistente de IA de código abierto y cliente MCP distribuido como un AppImage de Linux.

La versión 0.15.3 se instala en /opt/5ire/, se vincula al path del sistema y se configura con una entrada de escritorio. Dentro de la GUI de 5ire, los usuarios habilitan Ollama como proveedor, activan el soporte para herramientas en cada modelo y registran mcp-kali-server como una herramienta local con el comando /usr/bin/mcp-server.

Validación de Extremo a Extremo: Nmap con Lenguaje Natural

La capacidad del stack en el mundo real se validó con un prompt que pedía a 5ire, respaldado por qwen3:4b, realizar un escaneo de puertos TCP de scanme.nmap.org en los puertos 80, 443, 21 y 22.

El LLM interpretó correctamente la solicitud en lenguaje natural, invocó nmap a través de la cadena MCP y devolvió resultados estructurados, todo sin conexión, con ollama ps confirmando un procesamiento 100% en la GPU durante todo el proceso.

Esta configuración demuestra una alternativa viable y que preserva la privacidad a los asistentes de IA en la nube para trabajos de seguridad ofensiva.

Según el equipo de Kali Linux, la pila completa de Ollama, mcp-kali-server y 5ire son de código abierto, dependen del hardware en lugar de servicios, y son ajustables según la VRAM disponible.

Para los equipos rojos y los investigadores de seguridad que operan en entornos aislados o sensibles a los datos, la combinación de inferencia local y ejecución de herramientas impulsada por MCP marca un paso significativo hacia pruebas de penetración asistidas por IA autónomas y sin conexión.


Fuentes:
https://cybersecuritynews.com/kali-linux-ai-driven-penetration-testing/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.