Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1695
)
-
▼
diciembre
(Total:
33
)
-
Europa investiga a Meta por bloquear chatbots de I...
-
Administración de Lotería usará la IA para predeci...
-
Vulnerabilidades en Splunk permiten elevación de p...
-
Israel "Iron Beam", sistema de defensa aérea por l...
-
Linus Torvalds, creador de Linux, criticó durament...
-
Vulnerabilidad de inyección de comandos en Cacti v...
-
Si no quieres guardar las contraseñas en el navega...
-
Microsoft soluciona silenciosamente la vulnerabili...
-
Pentesting en Android: metodología completa
-
Fiscal de Arizona demanda a Temu por robo de datos
-
El presidente de España pide que Mark Zuckerberg d...
-
Microsoft actualiza la lista de CPUs Intel y AMD c...
-
Lo más buscado en Google y lo más peguntado a Amaz...
-
Las 10 extensiones favoritas de Google para IA con...
-
El Agente de IA Antigravity de Google borra todo e...
-
Vulnerabilidades críticas en React y Next.js
-
Micron liquida la marca Crucial para mejorar el su...
-
China impone nuevas normativas sobre las baterías ...
-
CEO de IBM advierte que la construcción de centros...
-
La botnet Aisuru realiza un nuevo ataque DDoS réco...
-
Windows 11 necesitaría un Service Pack
-
Let's Encrypt disminuirá la caducidad de los certi...
-
Ya disponible FreeBSD 15
-
Google soluciona 107 fallos en Android
-
Samsung presenta el Galaxy Z TriFold, un móvil ple...
-
Repositorios públicos de GitLab expusieron más de ...
-
DeepSeek presenta su nuevo modelo IA con razonmie...
-
ONLYOFFICE Docs 9.2: la suite ofimática estrena co...
-
Gemini 3 vs GPT-5.1: diferencias clave, rendimient...
-
TaskHound: automatizando la detección de tareas pr...
-
Todo lo que el navegador web revela por defecto si...
-
Windows 11 sigue siendo más lento que Windows 10
-
Seis grupos extranjeros de ciberespionaje, princip...
-
- ► septiembre (Total: 148 )
-
▼
diciembre
(Total:
33
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Ejemplos y funcionamiento avanzado de la API de Ollama
Como vimos en la entrada aanterior, Ollama nos permite interactuar con LLMs de una forma sencilla y transparente. Mucho más allá de realizar ciertas pruebas sencillas o iniciarnos en el mundo de los LLMs para comprobar su funcionamiento, en el mundo de desarrollo software se suelen necesitar opciones más avanzadas y personalizadas. En este entrada exploraremos estas opciones avanzadas que nos ofrece Ollama para poder personalizar nuestros modelos, así como hacer uso de su API y poder sacarle todo el partido para crear aplicaciones de IA.
Instalar y configurar Ollama (servidor Local para servir modelos LLM de IA)
Ollama es una aplicación que sirve como cliente y centro neurálgico para el uso de modelos LLM de inteligencia artificial. Lo que hace es centralizarlo todo, y permitir la carga de modelos, así como interactuar con ellos.
Cómo integar la API de Ollama con Moodle para usar la IA en un Campus
Ollama es un software, de código abierto, que permite ejecutar modelos de inteligencia artificial en tu hosting o tu propia computadora. Una vez instalado en tu servidor puedes integrarlo en Moodle, y usarlos de manera gratuita . Por lo que el costo asociado, es el del servidor donde corre.Con Ollama puedes gestionar y tener diferentes modelos de IA sin necesidades de servicios de terceros, como ChatGPT, Gemini, Grok. Entre los modelos de IA con Ollama, tenemos, por ejemplo: Deepseek, Llama, Gemma, Mistral, etc.
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.




