Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon
Mostrando entradas con la etiqueta ollama. Mostrar todas las entradas
Mostrando entradas con la etiqueta ollama. Mostrar todas las entradas

PostHeaderIcon Ejemplos y funcionamiento avanzado de la API de Ollama


 Como vimos en la entrada aanterior, Ollama nos permite interactuar con LLMs de una forma sencilla y transparente. Mucho más allá de realizar ciertas pruebas sencillas o iniciarnos en el mundo de los LLMs para comprobar su funcionamiento, en el mundo de desarrollo software se suelen necesitar opciones más avanzadas y personalizadas. En este entrada exploraremos estas opciones avanzadas que nos ofrece Ollama para poder personalizar nuestros modelos, así como hacer uso de su API y poder sacarle todo el partido para crear aplicaciones de IA.

 


PostHeaderIcon Instalar y configurar Ollama (servidor Local para servir modelos LLM de IA)


 Ollama es una aplicación que sirve como cliente y centro neurálgico para el uso de modelos LLM de inteligencia artificial. Lo que hace es centralizarlo todo, y permitir la carga de modelos, así como interactuar con ellos.




PostHeaderIcon Cómo integar la API de Ollama con Moodle para usar la IA en un Campus


 Ollama es un software, de código abierto, que permite ejecutar modelos de inteligencia artificial en tu hosting o tu propia computadora.  Una vez instalado en tu servidor puedes integrarlo en Moodle, y usarlos de manera gratuita . Por lo que el costo asociado, es el del servidor donde corre.Con Ollama puedes gestionar y tener diferentes modelos de IA sin necesidades de servicios de terceros, como ChatGPT, Gemini, Grok.  Entre los modelos de IA con Ollama, tenemos, por ejemplo: Deepseek, Llama, Gemma, Mistral, etc.

 

 



PostHeaderIcon Docker Model Runner: ejecución sencilla de modelos generativos locales LLM


Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.





PostHeaderIcon Herramientas con interfaz web para Ollama (IA)


Ollama es una herramienta gratuita y de código abierto que permite a los usuarios ejecutar localmente grandes modelos lingüísticos (LLM). Simplifica la experiencia de la IA al permitirle interactuar con los LLM sin complicaciones en su máquina.

 



PostHeaderIcon Instalar DeepSeek (destilado) con Ollama en tu ordenador para usarlo de forma local


Cómo instalar DeepSeek en tu ordenador, para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar recurrir a una de las más sencillas que sean posibles, y que funcione tanto con Windows como con macOS y GNU Linux.