Portátiles SLIMBOOK
Entradas Mensuales
Síguenos en:
Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon
Mostrando entradas con la etiqueta ollama. Mostrar todas las entradas
Mostrando entradas con la etiqueta ollama. Mostrar todas las entradas

PostHeaderIcon Docker Model Runner: ejecución sencilla de modelos generativos locales LLM


Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.





PostHeaderIcon Herramientas con interfaz web para Ollama (IA)


Ollama es una herramienta gratuita y de código abierto que permite a los usuarios ejecutar localmente grandes modelos lingüísticos (LLM). Simplifica la experiencia de la IA al permitirle interactuar con los LLM sin complicaciones en su máquina.

 



PostHeaderIcon Instalar DeepSeek (destilado) con Ollama en tu ordenador para usarlo de forma local


Cómo instalar DeepSeek en tu ordenador, para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar recurrir a una de las más sencillas que sean posibles, y que funcione tanto con Windows como con macOS y GNU Linux.