Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1695
)
- ► septiembre (Total: 148 )
-
▼
abril
(Total:
193
)
-
¿Por qué usar tarjetas de crédito cuando puedes pa...
-
Revelan un aumento record de ciberataques automati...
-
El Ayuntamiento de Badajoz sufre un ataque de rans...
-
OpenAI presenta un asistente de compras para ChatGPT
-
Winhance 4 permite un Windows más limpio, rápido y...
-
Anthropic descubrió que su Claude IA tiene su prop...
-
Vulnerabilidad Zero-Day crítica en SAP NetWeaver 7.xx
-
Meta AI presenta una app independiente para móviles
-
NotebookLM, el cuaderno de IA de Google, ya puede ...
-
ChatGPT revierte su última actualización tras desc...
-
Vibe coding o cómo crear una app sin tener ni idea...
-
Alibaba presenta los modelos de IA Qwen3, con capa...
-
Crea una lijadora de velocidad variable utilizando...
-
DeepSeek R2 está en fase de desarrollo: se entrena...
-
El Robotaxi de Tesla no será tan autónomo como Elo...
-
La IA revoluciona el diagnóstico y los tratamiento...
-
Windows te dejará insultar: podrás quitar el filtr...
-
CMF presenta el Phone 2 Pro es lo que todo móvil b...
-
El Consejo Europeo descarta un ciberataque como or...
-
ASUS activa el giroscopio de sus GeForce RTX 50 RO...
-
Google dice que «Find My Device» es 4 veces más rá...
-
Google asegura que si la IA se encarga de tareas a...
-
La nueva actualización de Windows incluye un fallo...
-
Apple planea trasladar a la India la producción de...
-
Brave integra Cookiecrumbler: el uso de la IA para...
-
Android 15 está solo en el 4,5% de los dispositivo...
-
Un chaval de 17 años inventó en 2011 lo que hacemo...
-
Ray Kurzweil, futurista y experto en IA: “En 2040 ...
-
Dos adolescentes robaron 24 millones en criptomone...
-
Filtrados en Telegram cientos de contraseñas de us...
-
Filtración de datos con más de 665.000 estudios mé...
-
HACKRON 2025: 29 mayo en Tenerife, las islas Canarias
-
Grok ve a través de la cámara y añade audio multil...
-
Logitech y Anker dan las primeras señales del impa...
-
Estados Unidos acusa a Europa de ‘extorsión económ...
-
Elon Musk prestó millones para comprar una casa y ...
-
Un "gracias" a ChatGPT consume más que 10 búsqueda...
-
Perro-robot puede pastorear ovejas sin ayuda humana
-
La opción que deberías desactivar en ChatGPT si qu...
-
YouTube Music estrena dos nuevas funciones
-
La Comisión Europea multa a Apple con 500 millones...
-
Western Digital y Microsoft están extrayendo de lo...
-
OpenAI trabaja en una red social con IA
-
Intel despedirá a 21.000 empleados, el 20% de su p...
-
Mavinject.exe: inyección de DLL utilizando la util...
-
DOOM funcionando en un código QR de solo 2,5 kilob...
-
Una vaca ha logrado cortar la conexión a internet ...
-
Google no eliminará las cookies de terceros en Chrome
-
MAGI-1, la IA china de código abierto, que genera ...
-
Google paga «millones» a Samsung por preinstalar G...
-
OutRun tendrá una película de la mano de Michael B...
-
OpenAI dispuesta a comprar Chrome si la justicia o...
-
Malware chino SuperCard X para Android es capaz de...
-
Wikipedia lanza un conjunto de datos para entrenar...
-
FramePack permite generar vídeos por IA con solo 6...
-
Microsoft Copilot ya es capaz de crear presentacio...
-
Smartphones y tablets tendrán que utilizar nueva e...
-
Hertz sufre un robo de información que afecta a má...
-
Ordenadores cuánticos: el qubit reemplaza al bit
-
El fundador de Telegram prefiere salir del mercado...
-
Instagram utiliza la IA para detectar a los adoles...
-
China presenta un cañón de 16 tubos para derribar ...
-
Meta quiere usar tus datos para entrenar su IA: si...
-
G1, el robot que practica artes marciales
-
¿Cuáles son los mejores sistemas operativos para l...
-
¿Por qué Graphene OS sólo es compatible con los te...
-
Western Digital anuncia discos duros de 40 TB para...
-
Vulnerabilidad crítica en la función extract() de ...
-
#laligagate, la movilización de usuarios y webs pa...
-
Operación Bonanza, una estafa piramidal de más de ...
-
Ucrania equipa sus drones con malware para sabotea...
-
Proxmox lanza la versión 8.4 de su plataforma de v...
-
Los primeros robots humanoides en correr una media...
-
Vulnerabilidad Windows NTLM explotada para robo de...
-
Vulnerabilidad en Cisco Webex permite ejecutar cód...
-
"ChatGPT es mi amigo y mi terapeuta": cada vez más...
-
Onorato IA, el loro robot que acompaña, habla y cu...
-
Investigadores descubren una nueva forma de evitar...
-
Alerta por la nueva función de Instagram que muest...
-
Un abogado cita sentencias "inexistentes" inventad...
-
Cuáles son los principales ataques a modelos de in...
-
RAID y ZFS: ¿Qué son y para qué sirven?
-
La justicia de Estados Unidos determina que Google...
-
Hackeó la Xbox antes que nadie y de paso logró alg...
-
Alertan sobre el aumento de los casos de clonación...
-
Windows 7 Elite Edition, ¿por qué no puede ser así...
-
OpenAI presenta o3 y o4-mini, sus modelos de razon...
-
Utilizar la IA de OpenAI para averiguar la ubicaci...
-
Meta empieza a usar lo que publicas en Facebook e ...
-
Los teléfonos Android se reiniciarán solos tras 3 ...
-
Make web mapping (open source) great again
-
El disco en PS5 de Indiana Jones y el Gran Círculo...
-
Desarrollan una herramienta de IA financiada por e...
-
ChatGPT se convierte en la aplicación móvil más de...
-
Google Chrome corrige un error de privacidad que a...
-
Fortinet advierte que atacantes pueden conservar e...
-
4chan hackeado, roban datos personales y el código...
-
La vida útil de los certificados SSL/TLS se reduci...
-
ServerlessHorrors: la web que recoge las peores pe...
-
Estados Unidos deja atrás las cintas magnéticas co...
-
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
-
Un agente de IA de Google llamado Antigravity eliminó accidentalmente todos los datos del disco duro de un desarrollador. Después de la eli...
-
A partir de 2026, la validez de los certificados digitales disminuirá gradualmente, pasando de 398 días a 47 días para 2029 . Let's Encr...
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.

Docker Model Runner permite ejecutar modelos de inteligencia artificial directamente desde la línea de comandos, sin necesidad de empaquetarlos en imágenes de contenedor (algo que siempre ha sido complicado y ha dado problemas). La idea es que puedas descargar y ejecutar los modelos en tu hardware local, pero usando Docker como "motor" para no tener que instalar nada y poder usarlo como el resto de infraestructura de desarrollo que estés utilizando.
- Compatible con Model Context Protocol (MCP)
Con esta estrategia, nos ahorramos tiempo y recursos, pero también tenemos una experiencia de desarrollo más fluida para trabajar con modelos en local.
Te cuento rápidamente todos los detalles sobre cómo funciona, sus características, limitaciones, requisitos, y precios.
¿Cómo funciona Docker Model Runner?
Esta característica viene de serie con Docker Desktop a partir de su versión 4.40 (en el momento de escribir esto está todavía en "beta" pero es bastante fiable).
Docker Model Runner ofrece una interacción directa con los modelos de lenguaje usando APIs compatibles con OpenAI, aparte de darnos una interfaz básica para poder probarlos desde la línea de comandos.
Docker Model Runner está activado por defecto y se suministra como parte de Docker Desktop 4.40 para macOS en hardware de silicio de Apple.
docker desktop enable model-runner
En su configuración por defecto, el Model Runner sólo será accesible a través del socket Docker en el host, o a los contenedores a través del endpoint especial model-runner.docker.internal. Si desea interactuar con él a través de TCP desde un proceso de host (tal vez porque quiere apuntar algún SDK OpenAI dentro de su código directamente a él), también puede habilitarlo a través de CLI especificando el puerto previsto:
docker desktop enable model-runner --tcp 12434
Los modelos se descargan desde Docker Hub y se almacenan localmente
(o sea, no están dentro de un contenedor) para un acceso más rápido en
futuras ejecuciones, para lo cual utilizamos los comandos de Docker que
ya conoces (pull, run, rm...), pero con la instrucción model delante, o sea: docker model pull, docker model run o docker model rm .
Usage: docker model COMMAND
Commands:
list List models available locally
pull Download a model from Docker Hub
rm Remove a downloaded model
run Run a model interactively or with a prompt
status Check if the model runner is running
version Show the current version
En concreto, los comandos soportados son:
list: listar los modelos disponibles localmente.pull: descargar un modelo de Docker Hub.rm: eliminar un modelo descargado.run: ejecutar un modelo de forma interactiva o con un aviso.status: comprobar si el ejecutor del modelo está en funcionamiento.version: mostrar la versión actual.
Los modelos que tengas en local se cargan en memoria solo cuando se necesitan y se libera la memoria cuando dejes de usarlos, optimizando así el uso de los recursos de tu ordenador. Además, cuenta con soporte para aceleración por GPU, lógicamente, lo que reduce la latencia y mejora el rendimiento.
Para entendernos: es como ejecutar Ollama, pero más sencillo y con mayor facilidad de gestión.
Soporta una buena selección de modelos de código abierto o de "pesos abiertos", como: Llama de Meta, Phi de Microsoft, Mistral, DeepSeek, Gemma de Google o Qwen entre otros. Puedes consultar aquí la lista completa de modelos soportados por Docker Model Runner.
Por ejemplo, puedes descargar el modelo Phi4 de Microsoft escribiendo:
docker model pull ai/phi4
que lo deja en disco para su uso posterior cuando lo necesites.
Si ahora lo quieres ejecutar, simplemente ejecuta el comando run:
docker model run ai/phi4
Por defecto al ejecutarlo se lanza en forma de chat interactivo,
es decir, podrás empezar a intercambiar mensajes con el modelo desde la
línea de comandos como si fuese una interfaz de chat normal. Para
terminar y volver a la terminal escribe el comando /bye.
Ejemplo:
docker model pull ai/smollm2:360M-Q4_K_M
{model}:{parameters}-{quantization}
Pero también puedes obtener una respuesta inmediata a una entrada que le pases como argumento al comando. Por ejemplo:
docker model run ai/phi4 "Hola, ¿qué tal estás?"
a lo que el modelo te devolverá una respuesta directamente en la línea de comandos.
Lo mas interesante, de todos modos, es que al ejecutar un modelo tenemos desde Docker una API compatible con OpenAI con una serie de endpoints a los que podemos llamar para interactuar con nuestro modelo desde una aplicación propia.
curl http://model-runner.docker.internal/engines/llama.cpp/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "ai/llama3.2",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Please write 100 words about the docker compose."
}
]
}'
La dirección por defecto de esta API es http://model-runner.docker.internal/engines/llama.cpp/v1/ y, como digo, es compatible con la API de Open AI, de modo que podemos acceder a los recursos chat/completions, completions y embeddigns para trabajar con el modelo que corresponda, aunque no sea (y no será normalmente) un modelo de Open AI.
Es así de sencillo.
Desde la API (OpenAI)
# OpenAI endpoints
GET /engines/llama.cpp/v1/models
GET /engines/llama.cpp/v1/models/{namespace}/{name}
POST /engines/llama.cpp/v1/chat/completions
POST /engines/llama.cpp/v1/completions
POST /engines/llama.cpp/v1/embeddings
Note: You can also omit llama.cpp.
Lo interesante es que Docker está ejecutando estos modelos fuera del contenedor, usando el hardware local directamente, algo que puede sorprender de entrada pero que es precisamente la gracia que tiene.
Es similar a Ollama, pero en este caso, llama.cpp está
envuelto en la API de Docker e integrado con las herramientas de Docker.
Esto facilita muchísimo el proceso, ya que ejecutar modelos de IA
dentro de contenedores puede ser muy complicado.
Lo que conseguimos es integrar estos modelos fuera de contenedores pero dentro del ecosistema de Docker, lo que facilita gestionarlos como el resto de los elementos de trabajo que utilicemos, con esa filosofía de de "infraestructura versionada" que nos permite tener Docker. Es un gran avance.
Te dejo un enlace a la documentación oficial de Docker Model Run y también a un repositorio de ejemplo que han creado con la misma aplicación de chat, que trabaja contra la API que acabamos de ver, creada con Go, Node.js y Python, para que puedas probarlo y aprender.
Limitaciones y uso gratuito de Docker Model Runner
Actualmente, Docker Model Runner solo está disponible para macOS con Apple Silicon (M1/M2/M3/M4), aunque se espera soporte para Windows con GPUs NVIDIA a finales de este mismo mes de abril de 2025.
Hay que tener en cuenta además que, como con cualquier utilidad de este tipo, los modelos pueden llegar a ser grandes, lo que puede resultar en tiempos de descarga iniciales largos. Además, de momento no incorpora de serie ninguna salvaguarda para cuando cargamos un modelo más grande que el que nuestro hardware puede soportar, pudiendo producirse algún error que tire todo abajo. Pero lo irán perfeccionando: al fin y al cabo estamos todavía con una beta.
Docker Model Runner es una característica incluida en Docker Desktop, por lo que no tiene un coste adicional más allá de la suscripción a Docker Desktop que necesites. Como seguramente sabes, puedes usar Docker gratuitamente para uso personal y en empresas pequeñas, pero si tu empresa es grande (tiene más de 250 empleados o factura más de 10 millones de dólares) es necesario pagar una licencia. Esto ahora lo tienen un poco escondido por ahí, pero sigue siendo válido.
En resumen
Aunque acaba de salir y está todavía en "beta", el futuro del Docker Model Runner parece prometedor porque es una herramienta muy interesante que facilita mucho la vida si vas a incorporar modelos locales a tu flujo de desarrollo. Con el soporte para Windows en camino y la posibilidad de integrar más modelos y características, esta herramienta podría convertirse en un "estándar" para el desarrollo de aplicaciones de inteligencia artificial, casi tanto como ya lo es Docker para cualquier tipo de desarrollo. Además, Docker planea mejorar la integración con otras herramientas y plataformas, lo que facilitará aún más el trabajo de los desarrolladores.
Fuentes:
https://www.campusmvp.es/recursos/post/docker-ejecucion-sencilla-de-modelos-generativos-locales.aspx
https://dev.to/pradumnasaraf/docker-can-run-llms-locally-wait-what-35fn








Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.