Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
1514
)
-
▼
marzo
(Total:
23
)
-
Vulnerabilidad de Telnet de 27 años permite a atac...
-
NVIDIA va de récord en récord: 68 mil millones en ...
-
HP: la memoria y el almacenamiento ya representan ...
-
Vulnerabilidad crítica de día cero en Cisco SD-WAN...
-
Dos Ryzen 9 9950X pasan a mejor vida en la misma A...
-
El conector Thermal Grizzly Wireview GPU Pro tampo...
-
No te quedarás sin cobertura: Starlink llevará el ...
-
SURXRAT: ataque de RAT en Android roba control tot...
-
Europa desarrolla un chip inspirado en el cerebro ...
-
Perplexity Computer y el salto a la IA operativa
-
Pueden abusar de la función Terminal en vivo de Co...
-
Crean un falso sitio de Avast para robar datos de ...
-
Utiliza a Claude, la IA de Anthropic, para robar 1...
-
Kali Linux integra Claude AI para pruebas de penet...
-
Google desmantela infraestructura de hackers chino...
-
Cisco corrige un zero-day crítico en Catalyst SD-W...
-
LG UltraGear evo G9, el monitor 5K más grande del ...
-
NVIDIA mostraría el primer Sample de su GPU Feynma...
-
Intel confirma Unified Core, la vuelta a un solo t...
-
Desbloquea todo el contenido de Resident Evil 4 Re...
-
Giro de 180 grados a las IPTV en Italia: Javier Te...
-
No crees una contraseña con IA, ni ChatGPT, ni Gem...
-
¿Cuánto aportó el furor por la IA a la economía en...
-
-
▼
marzo
(Total:
23
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Ejemplos y funcionamiento avanzado de la API de Ollama
Como vimos en la entrada aanterior, Ollama nos permite interactuar con LLMs de una forma sencilla y transparente. Mucho más allá de realizar ciertas pruebas sencillas o iniciarnos en el mundo de los LLMs para comprobar su funcionamiento, en el mundo de desarrollo software se suelen necesitar opciones más avanzadas y personalizadas. En este entrada exploraremos estas opciones avanzadas que nos ofrece Ollama para poder personalizar nuestros modelos, así como hacer uso de su API y poder sacarle todo el partido para crear aplicaciones de IA.
Instalar y configurar Ollama (servidor Local para servir modelos LLM de IA)
Ollama es una aplicación que sirve como cliente y centro neurálgico para el uso de modelos LLM de inteligencia artificial. Lo que hace es centralizarlo todo, y permitir la carga de modelos, así como interactuar con ellos.
Cómo integar la API de Ollama con Moodle para usar la IA en un Campus
Ollama es un software, de código abierto, que permite ejecutar modelos de inteligencia artificial en tu hosting o tu propia computadora. Una vez instalado en tu servidor puedes integrarlo en Moodle, y usarlos de manera gratuita . Por lo que el costo asociado, es el del servidor donde corre.Con Ollama puedes gestionar y tener diferentes modelos de IA sin necesidades de servicios de terceros, como ChatGPT, Gemini, Grok. Entre los modelos de IA con Ollama, tenemos, por ejemplo: Deepseek, Llama, Gemma, Mistral, etc.
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.




