Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
34
)
-
▼
enero
(Total:
34
)
-
Elon Musk ofrece Internet gratuito a Venezuela has...
-
Un experimento enfrenta a seis generaciones de Win...
-
En Alemania, ya se está comenzando a dejar de vend...
-
Hace 15 años, Elon Musk se reía de BYD: en 2025 ha...
-
Tu casa parecerá de ciencia ficción: los 5 nuevos ...
-
Aerominum, el material clave de los LG gram 2026
-
Windows 11 permite compartir cualquier ventana con...
-
Clon de Flappy Bird utiliza la bisagra de teléfono...
-
Motivos por los que la nube no puede sustituir al ...
-
Microsoft elimina activación telefónica de Windows...
-
MSI anuncia fuentes de alimentación con protección...
-
MSI RTX 5090 Lightning rompe récords antes de su l...
-
Finlandia detiene a dos tripulantes de un buque de...
-
CORSAIR también cancela los pedidos de 48GB de RAM...
-
El CEO de Instagram propone etiquetas para el cont...
-
Mitos al usar una VPN que debes conocer
-
Samsung integrará IA con Perplexity
-
Hay un botón en la TV que activa un modo oculto de...
-
GIGABYTE presenta cuatro placas base AMD AM4 para ...
-
Cómo desactivar Microsoft Copilot de Windows 11
-
Una fábrica del tamaño de un microondas ahora prod...
-
Un desarrollador usa la IA Claude para crear un em...
-
La India aprueba un proyecto para impulsar la fabr...
-
GIGABYTE EAGLE 360, refrigeración líquida para usu...
-
Mantenedor de Debian critica rastreador de errores...
-
Más de 10.000 firewalls Fortinet expuestos a vulne...
-
MacBook de soldado ucraniano resiste impacto de me...
-
Vulnerabilidad crítica en IBM API Connect
-
DarkSpectre infecta a 8,8 millones de usuarios de ...
-
Las empresas chinas ByteDance y Tencent a la caza ...
-
Gusano de GlassWorm se propaga y ataca a usuarios ...
-
Los usuarios de Linux han crecido en Steam, pero n...
-
Herramienta cifra y descifra copias de seguridad d...
-
GhostPairing: una estafa secuestra cuentas de What...
-
-
▼
enero
(Total:
34
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Ejemplos y funcionamiento avanzado de la API de Ollama
Como vimos en la entrada aanterior, Ollama nos permite interactuar con LLMs de una forma sencilla y transparente. Mucho más allá de realizar ciertas pruebas sencillas o iniciarnos en el mundo de los LLMs para comprobar su funcionamiento, en el mundo de desarrollo software se suelen necesitar opciones más avanzadas y personalizadas. En este entrada exploraremos estas opciones avanzadas que nos ofrece Ollama para poder personalizar nuestros modelos, así como hacer uso de su API y poder sacarle todo el partido para crear aplicaciones de IA.
Instalar y configurar Ollama (servidor Local para servir modelos LLM de IA)
Ollama es una aplicación que sirve como cliente y centro neurálgico para el uso de modelos LLM de inteligencia artificial. Lo que hace es centralizarlo todo, y permitir la carga de modelos, así como interactuar con ellos.
Cómo integar la API de Ollama con Moodle para usar la IA en un Campus
Ollama es un software, de código abierto, que permite ejecutar modelos de inteligencia artificial en tu hosting o tu propia computadora. Una vez instalado en tu servidor puedes integrarlo en Moodle, y usarlos de manera gratuita . Por lo que el costo asociado, es el del servidor donde corre.Con Ollama puedes gestionar y tener diferentes modelos de IA sin necesidades de servicios de terceros, como ChatGPT, Gemini, Grok. Entre los modelos de IA con Ollama, tenemos, por ejemplo: Deepseek, Llama, Gemma, Mistral, etc.
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.




