-
▼
2025
(Total:
486
)
-
▼
abril
(Total:
52
)
-
Desarticulada una organización que creaba vídeos d...
-
La ONU alerta: la IA podría destruir más de 8 mill...
-
China anuncia un cable que transmite video 8K y al...
-
OpenAI podría añadir marcas de agua visibles a las...
-
Círculo azul de Instagram con Meta AI: qué es y có...
-
Las tecnológicas chinas apuestan por la IA con mod...
-
Gestor de paquetes Debian APT 3.0 con una interfaz...
-
Restaurar un SSD con el método del ciclo de energía
-
El invierno de la IA: así fue el período en el que...
-
Comprar un PC con ARM en 2025
-
NVIDIA publica todas sus tecnologías PhysX y Flow ...
-
Desarrollar software en 2027 será como dirigir una...
-
Así está cambiando la IA la forma en que el mundo ...
-
Crea un pasaporte falso en cinco minutos con ChatG...
-
China ha comenzado la producción masiva de batería...
-
Meta presenta Llama 4, su nuevo modelo LLM de inte...
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
Con 21 años creó una IA que engaña en entrevistas ...
-
Anthropic presenta Claude para la Educación, una I...
-
Microsoft presenta la máquina de recuperación rápi...
-
No hace falta pagar para tener un escritorio remot...
-
La Policía Nacional detiene en España a 16 persona...
-
Microsoft filtró una clave de activación un mes an...
-
Los internautas españoles claman contra la Justici...
-
Movistar no levanta el bloqueo de las IP de Cloudf...
-
Sanción a Apple de 150M€ por abuso de posición dom...
-
Archivos de FGR, SAT y más de 1,500 sitios mexican...
-
Gen-4, la IA que genera videos más realistas que Sora
-
Microsoft Word permite resumir documentos de cient...
-
Vulnerabilidades críticas en PHP y Apache Tomcat
-
Microsoft quiere cambiar el pantallazo azul de la ...
-
El Gobierno de España aprueba el DNI digital, que ...
-
Elon Musk afirma que le ha dado a la madre de su ú...
-
Un juzgado admite la demanda millonaria de la OCU ...
-
Google admite no saber por qué su IA aprende cosas...
-
Filtrados 2.800 millones de usuarios de Twitter/X,...
-
Una mujer recupera el habla 18 años después de un ...
-
Amazon Nova Act es la nueva IA que puede navegar l...
-
Un usuario se compró un lavavajillas conectado de ...
-
Hackean la megafonía de El Corte Inglés e incitan ...
-
Temperatura GPU (Tarjeta Gráfica)
-
Cifrado extremo a extremo ¿qué es?
-
Bjarne Stroustrup, creador de C++, aconseja a los ...
-
OpenAI aumenta las recompensas de su programa de v...
-
Sistema de archivos ReFS vs NTFS en Windows 11
-
Instalar LM Studio (IA LLM en local)
-
La banda del Niño Skin consiguió 'empurar' al guar...
-
-
▼
abril
(Total:
52
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- El robo del siglo: así perpetró Corea del Norte el mayor hurto de activos digitales de la historia para financiar su pro
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
- Elon Musk cobra la API de Twitter (X) a precio de oro: esta app te permite usarla gratis
Entradas populares
-
Conectarse a un dispositivo remoto, ver lo que le ocurre y hasta controlarlo a distancia son tres de las cualidades que poseen aplicacione...
-
Aunque emiten radiación internamente, están diseñadas con materiales de protección que evitan emisiones externas, haciendo que sean seguras...
-
Hace unos días, recogíamos que la Universidad de Columbia expulsó a un estudiante que creó una herramienta de IA que ayuda a los candidatos...
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.

Docker Model Runner permite ejecutar modelos de inteligencia artificial directamente desde la línea de comandos, sin necesidad de empaquetarlos en imágenes de contenedor (algo que siempre ha sido complicado y ha dado problemas). La idea es que puedas descargar y ejecutar los modelos en tu hardware local, pero usando Docker como "motor" para no tener que instalar nada y poder usarlo como el resto de infraestructura de desarrollo que estés utilizando.
- Compatible con Model Context Protocol (MCP)
Con esta estrategia, nos ahorramos tiempo y recursos, pero también tenemos una experiencia de desarrollo más fluida para trabajar con modelos en local.
Te cuento rápidamente todos los detalles sobre cómo funciona, sus características, limitaciones, requisitos, y precios.
¿Cómo funciona Docker Model Runner?
Esta característica viene de serie con Docker Desktop a partir de su versión 4.40 (en el momento de escribir esto está todavía en "beta" pero es bastante fiable).
Docker Model Runner ofrece una interacción directa con los modelos de lenguaje usando APIs compatibles con OpenAI, aparte de darnos una interfaz básica para poder probarlos desde la línea de comandos.
Los modelos se descargan desde Docker Hub y se almacenan localmente
(o sea, no están dentro de un contenedor) para un acceso más rápido en
futuras ejecuciones, para lo cual utilizamos los comandos de Docker que
ya conoces (pull
, run
, rm
...), pero con la instrucción model
delante, o sea: docker model pull
, docker model run
o docker model rm
.
Usage: docker model COMMAND
Commands:
list List models available locally
pull Download a model from Docker Hub
rm Remove a downloaded model
run Run a model interactively or with a prompt
status Check if the model runner is running
version Show the current version
En concreto, los comandos soportados son:
list
: listar los modelos disponibles localmente.pull
: descargar un modelo de Docker Hub.rm
: eliminar un modelo descargado.run
: ejecutar un modelo de forma interactiva o con un aviso.status
: comprobar si el ejecutor del modelo está en funcionamiento.version
: mostrar la versión actual.
Los modelos que tengas en local se cargan en memoria solo cuando se necesitan y se libera la memoria cuando dejes de usarlos, optimizando así el uso de los recursos de tu ordenador. Además, cuenta con soporte para aceleración por GPU, lógicamente, lo que reduce la latencia y mejora el rendimiento.
Para entendernos: es como ejecutar Ollama, pero más sencillo y con mayor facilidad de gestión.
Soporta una buena selección de modelos de código abierto o de "pesos abiertos", como: Llama de Meta, Phi de Microsoft, Mistral, DeepSeek, Gemma de Google o Qwen entre otros. Puedes consultar aquí la lista completa de modelos soportados por Docker Model Runner.
Por ejemplo, puedes descargar el modelo Phi4 de Microsoft escribiendo:
docker model pull ai/phi4
que lo deja en disco para su uso posterior cuando lo necesites.
Si ahora lo quieres ejecutar, simplemente ejecuta el comando run
:
docker model run ai/phi4
Por defecto al ejecutarlo se lanza en forma de chat interactivo,
es decir, podrás empezar a intercambiar mensajes con el modelo desde la
línea de comandos como si fuese una interfaz de chat normal. Para
terminar y volver a la terminal escribe el comando /bye
.
Pero también puedes obtener una respuesta inmediata a una entrada que le pases como argumento al comando. Por ejemplo:
docker model run ai/phi4 "Hola, ¿qué tal estás?"
a lo que el modelo te devolverá una respuesta directamente en la línea de comandos.
Lo mas interesante, de todos modos, es que al ejecutar un modelo tenemos desde Docker una API compatible con OpenAI con una serie de endpoints a los que podemos llamar para interactuar con nuestro modelo desde una aplicación propia.
La dirección por defecto de esta API es http://model-runner.docker.internal/engines/llama.cpp/v1/
y, como digo, es compatible con la API de Open AI, de modo que podemos acceder a los recursos chat/completions
, completions
y embeddigns
para trabajar con el modelo que corresponda, aunque no sea (y no será normalmente) un modelo de Open AI.
Es así de sencillo.
Lo interesante es que Docker está ejecutando estos modelos fuera del contenedor, usando el hardware local directamente, algo que puede sorprender de entrada pero que es precisamente la gracia que tiene.
Es similar a Ollama, pero en este caso, llama.cpp
está
envuelto en la API de Docker e integrado con las herramientas de Docker.
Esto facilita muchísimo el proceso, ya que ejecutar modelos de IA
dentro de contenedores puede ser muy complicado.
Lo que conseguimos es integrar estos modelos fuera de contenedores pero dentro del ecosistema de Docker, lo que facilita gestionarlos como el resto de los elementos de trabajo que utilicemos, con esa filosofía de de "infraestructura versionada" que nos permite tener Docker. Es un gran avance.
Te dejo un enlace a la documentación oficial de Docker Model Run y también a un repositorio de ejemplo que han creado con la misma aplicación de chat, que trabaja contra la API que acabamos de ver, creada con Go, Node.js y Python, para que puedas probarlo y aprender.
Limitaciones y uso gratuito de Docker Model Runner
Actualmente, Docker Model Runner solo está disponible para macOS con Apple Silicon (M1/M2/M3/M4), aunque se espera soporte para Windows con GPUs NVIDIA a finales de este mismo mes de abril de 2025.
Hay que tener en cuenta además que, como con cualquier utilidad de este tipo, los modelos pueden llegar a ser grandes, lo que puede resultar en tiempos de descarga iniciales largos. Además, de momento no incorpora de serie ninguna salvaguarda para cuando cargamos un modelo más grande que el que nuestro hardware puede soportar, pudiendo producirse algún error que tire todo abajo. Pero lo irán perfeccionando: al fin y al cabo estamos todavía con una beta.
Docker Model Runner es una característica incluida en Docker Desktop, por lo que no tiene un coste adicional más allá de la suscripción a Docker Desktop que necesites. Como seguramente sabes, puedes usar Docker gratuitamente para uso personal y en empresas pequeñas, pero si tu empresa es grande (tiene más de 250 empleados o factura más de 10 millones de dólares) es necesario pagar una licencia. Esto ahora lo tienen un poco escondido por ahí, pero sigue siendo válido.
En resumen
Aunque acaba de salir y está todavía en "beta", el futuro del Docker Model Runner parece prometedor porque es una herramienta muy interesante que facilita mucho la vida si vas a incorporar modelos locales a tu flujo de desarrollo. Con el soporte para Windows en camino y la posibilidad de integrar más modelos y características, esta herramienta podría convertirse en un "estándar" para el desarrollo de aplicaciones de inteligencia artificial, casi tanto como ya lo es Docker para cualquier tipo de desarrollo. Además, Docker planea mejorar la integración con otras herramientas y plataformas, lo que facilitará aún más el trabajo de los desarrolladores.
Fuentes:
https://www.campusmvp.es/recursos/post/docker-ejecucion-sencilla-de-modelos-generativos-locales.aspx
Entradas relacionadas:






0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.