Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Instalar DeepSeek (destilado) con Ollama en tu ordenador para usarlo de forma local


Cómo instalar DeepSeek en tu ordenador, para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar recurrir a una de las más sencillas que sean posibles, y que funcione tanto con Windows como con macOS y GNU Linux.

 




 

 

  • Puedes instalar DeepSeek en cualquier ordenador para usarlo de forma local sin conectarte a ningún sitio. De hecho, no necesitas ni una conexión a Internet.

 

¿Qué es DeepSeek-R1?

DeepSeek-R1 es un modelo de IA open-source, gratis y diseñado para tareas que requieran mucho razonamiento (por ejemplo, resolución de problemas de programación, matemáticas avanzadas o procesos lógicos). La ventaja principal es que todo puede ejecutarse en tu computadora, sin mandar tus datos a servidores externos, lo que brinda privacidad y te ahorra los costos mensuales de otros proveedores populares.

¿Por qué DeepSeek-R1 es especial?

1º. Aprendizaje por Refuerzo (RL) vs. Entrenamiento Supervisado
DeepSeek-R1 se “entrena” resolviendo problemas por prueba y error, sin depender tanto de datos de ejemplo etiquetados de forma tradicional. Este proceso realza la capacidad de auto-verificación y reasoning de largo alcance.

2º. Eficiencia de costos

  • Si lo corres localmente, podés usar versiones “distilled” de entre 1.5B y 70B parámetros que funcionan incluso en GPU comunes (o con un poco de truco, en CPU potentes). Esto evita cuotas mensuales altas o costos por token.
  • La versión completa alcanza hasta 671B parámetros, ideal para tareas súper complejas (Ahí si tenés que tener hardware de gama alta $$$).

3º. Flexibilidad open-source
Al ser abierto, no hay restricciones para integrarlo en tus proyectos. Se puede tunear, combinar con otras bibliotecas o hasta crear tu propio servicio web basado en DeepSeek-R1.

Para eso, vamos a recurrir a un programa que se llama Ollama, y que sirve para poder instalar distintos modelos de inteligencia artificial y lanzarlos en tu ordenador. Entre ellos está DeepSeek. Se instala como una aplicación normal, aunque su utilización es un poco diferente.

Su gran particularidad es que funciona desde la consola interna de tu sistema operativo, tanto la de Windows como la de macOS o GNU/Linux. Esto puede ser un poco confuso, aunque simplifica su utilización al máximo. De hecho, solo tienes que instalar la app y escribir un comando para empezar a hacerla funcionar.

La parte positiva de esto es que vas a poder usar DeepSeek incluso sin conexión a Internet, ya que estará funcionando internamente en tu ordenador. Y la parte negativa es que no puedes hacer búsquedas en Internet, al menos con este modelo R1 que vamos a instalar.

¿Qué es Ollama?

  • Ollama (Open-source Library for AI Models and Applications)

Ollama es una herramienta de inteligencia artificial (IA) generativa diseñada para permitir a los usuarios generar contenido nuevo y realizar análisis avanzados de datos mediante modelos de lenguaje.

Ollama nos permitirá usar LLM (Large language model), esto es, modelos de lenguage entrenados para la IA, podrán ser de código abierto o de pago, podrán ser 100% offline o no, al gusto. Obviamente y dependiendo el LLM que usemos necesitaremos más o menos potencia, esto es, tener una GPU para que las respuestas sean inmediatas. Podremos usar la API de Ollama para hacerle preguntas de manera remota con otros sistemas, muy muy potente. Y os recomiendo Open WebUI como interfaz GUI para Ollama, así con nuestro navegador tendremos la interfaz que esperas para poder trabajar con tu IA cómodamente.


Razones para recomendarlo:
  • Ofrece un buen soporte para modelos locales;
  • Admite la calificación de mensajes a través de anotaciones RLHF para ajustar los modelos locales;
  • Admite la marcación de conversaciones para clasificar y ubicar fácilmente chats específicos;
  • Permite la descarga o eliminación de modelos directamente desde la interfaz;
  • Permite especificar diferentes modelos para la conversación utilizando @;

 

Lo dicho, necesitaremos una GPU para tener el mejor rendimiento posible, dependerá del LLM que usemos y los GB que requiera cada modelo, de esta manera las respuestas serán inmediatas. En cuanto al hardware compatible es bastante extenso (NVIDIA, AMD, Apple M1…), os dejo aquí su listado.

Es parte de la creciente categoría de herramientas de IA que utilizan redes neuronales profundas para entender y producir lenguaje natural, lo que la hace útil en una variedad de aplicaciones, desde la generación automática de textos hasta la creación de scripts personalizados.

Características principales de Ollama:

  1. Generación de contenido: Ollama puede generar texto coherente y relevante a partir de prompts o instrucciones dadas por el usuario, lo que la convierte en una herramienta valiosa para la automatización de tareas como la redacción de informes, la creación de documentación, y la elaboración de respuestas a incidentes de ciberseguridad.

  2. Análisis de datos: Utilizando modelos avanzados de procesamiento de lenguaje natural (NLP), Ollama puede analizar grandes volúmenes de datos para extraer información útil, identificar patrones de comportamiento, y ofrecer insights que facilitan la toma de decisiones.

  3. Personalización y ddaptabilidad: Ollama se puede adaptar a diferentes contextos y necesidades, permitiendo a los usuarios ajustar sus salidas según las especificaciones del proyecto o las demandas del entorno de trabajo.

  4. Interfaz de usuario amigable: A pesar de su sofisticación técnica, Ollama está diseñada para ser accesible tanto para expertos en inteligencia artificial como para profesionales en campos no técnicos, facilitando su adopción en diferentes sectores.

Instalar DeepSeek en un PC


 
 Lo primero que tienes que hacer es entrar en la web de Ollana, que es un programa que sirve para instalar y hacer funcionar de forma local varios modelos de inteligencia artificial. Para esto, entra en ollama.com, y pulsa en el botón Download que te aparecerá.
 
curl -fsSL https://ollama.com/install.sh | sh

Ahora, irás a la página donde tienes que elegir el sistema operativo para el que quieres bajarte el programa. Una vez lo hayas elegido, pulsa en el botón Download. Por defecto la web mostrará el sistema que estás usando, pero podrás descargar el ejecutable de cualquier otro.

Cuando lo descargues, lanza el programa de instalación. Instalar Ollama es muy sencillo, solo tienes que pulsar en el botón de siguiente en la pantalla de presentación, y luego pulsar en el botón Install en la pantalla de instalación.


Ahora viene la única parte un poco compleja. Una vez instalado, tienes que lanzar la aplicación de Ollama. Aparentemente no pasará nada, no se abrirá nada. En este punto, con Ollama funcionando tienes que abrir la terminal de tu sistema operativo, el símbolo de sistema en Windows. Allí, tienes que escribir el código para instalar o ejecutar DeepSeek. Es el siguiente:

 

ollama run <modelo>:<etiqueta>

  • ollama pull deepseek-r1:8b: Esto solo descarga DeepSeek R1 en su versión 8B. Esta versión es algo más grande que las inferiores, pero es bastante más efectiva.
  • ollama run deepseek-r1:8b: Esto instala y lanza DeepSeek R1 en la versión 8b o en la que elijas.
  1. Descarga de DeepSeek-R1 con Ollama
    Elegir el modelo “distilled” que se ajuste a tu GPU (o CPU).
    • 1.5B parámetros (aprox. 1.1GB):

      ollama run deepseek-r1:1.5b
      
    • 7B parámetros (aprox. 4.7GB):

      ollama run deepseek-r1
      
    • 70B parámetros (requiere +24GB de VRAM):

      ollama run deepseek-r1:70b
      
    • Versión completa 671B (para entusiastas con +300GB de VRAM):

      ollama run deepseek-r1:671b
      

Cuando ejecutes deepseek vas a ver que empieza a descargar el modelo, y luego tendrás una terminal como la siguiente


 

El proceso de instalación es de varios gigas, unos 5, y lo mucho o poco que tarde dependerá de tu conexión a Internet. Una vez instalado, en el caso de haber usado el comando run ya podrás empezar a usarlo.


.Para utilizar Ollama:

  • descargar modelos: ollama pull llama2. Existen muchos modelos en https://ollama.com/library
  • ejecutar modelos: ollama run lava y tendrás el modelo listo en una terminal
  • ver los modelos descargados: ollama list
  • eliminar un modelo descargado: ollama rm llama2
  • también puedes arrancar Ollama desde la terminal sin necesidad de la aplicación de escritorio con ollama serve
  • ejecutar una consulta desde el prompt ollama run llama2 "why is ths sky blue?"
  • ejecutar una consulta desde el prompt pasándole un archivo como argumento para el contexto ollama run llama2 "haz un resumen del siguiente archivo: $(cat README.md)"
  • ejecutar una consulta multimodal sobre una imagen en tu disco local ollama run llava "what is in this image? /users/me/images/myimage.jpg"
  • saber más: ollama --help
 
ComandoDescripción
ollama serve
Starts Ollama on your local system.
ollama create <new_model>
Creates a new model from an existing one for customization or training.
ollama show <model>
Displays details about a specific model, such as its configuration and release date.
ollama run <model>
Runs the specified model, making it ready for interaction
ollama pull <model>
Downloads the specified model to your system.
ollama list
Lists all the downloaded models.
ollama ps
Shows the currently running models.
ollama stop <model>
Stops the specified running model.
ollama rm <model>
Removes the specified model from your system.
 

Cómo usar DeepSeek en tu PC

 Tras haber hecho la instalación, solo tienes que usar el comando ollama run deepseek-r1:8b en el terminal de tu ordenador teniendo el programa Ollama abierto. La versión 8b puedes cambiarla por otra de las aquí disponibles: ollama.com/library/deepseek-r1/tags.

 Cuando lances el programa, en la línea de comandos de tu ordenador podrás escribir el prompt que quieras lanzarle a DeepSeek, y tras unos segundos empezará a generarte la respuesta. Puedes usar DeepSeek en español si escribes en ese idioma, aunque su tendencia será usar el inglés. Si te responde en inglés, siempre puedes mencionar en el prompt que te responda en español.

El modelo DeepSeek R1 está especializado en el razonamiento. Por eso, cuando le escribas un prompt, antes de recibir la respuesta podrás ver su razonamiento entre las etiquetas <think>. Esto es curioso para que puedas ver la manera en la que la IA está procesando lo que le has preguntado. Luego, te generará la respuesta.

 Cuando quieras dejar de usar Ollama con DeepSeek, entonces tendrás que escribir el comando /bye, y te devolverá al terminal por defecto. Si escribes /? te mostrará otros comandos que puedes utilizar.


Open WebUI

Open WebUI es una interfaz de IA de código abierto autohospedada, extensible, rica en funciones y fácil de usar, diseñada para funcionar completamente sin conexión. Es compatible con varios ejecutores de LLM, incluidos Ollama y la API compatible con OpenAI.


Ejecutar DeepSeek en una interfaz web


Aunque Ollama le permite interactuar con DeepSeek a través de la línea de comandos, es posible que prefiera una interfaz web más fácil de usar. Para ello, utilizaremos Ollama Web UI, una sencilla interfaz basada en web para interactuar con los modelos de Ollama.

En primer lugar, cree un entorno virtual que aísle sus dependencias de Python de la instalación de Python en todo el sistema.

sudo apt install python3-venv
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate


Ahora que tu entorno virtual está activo, puedes instalar Open WebUI usando pip. 


pip install open-webui


open-webui serve 

Abre tu navegador web y navegue hasta http://localhost:8080 - debería ver la interfaz Web UI de Ollama.

En la interfaz web, selecciona el modelo de DeepSeek en el menú desplegable y empiecz a interactuar con él. Puedes hacer preguntas, generar texto o realizar otras tareas compatibles con DeepSeek.


Configurar la API REST

Actualmente, el modelo está ejecutándose y Ollama crea un servidor HTTP local con una API REST que podemos usar, pero necesitamos configurar NGinx para habilitar el acceso mediante un proxy inverso.

$ sudo apt install nginx


Instalar NGinx es muy sencillo, solo ejecuta el comando anterior. Ahora, asegurémonos de permitir tráfico HTTP en el firewall:


$ sudo ufw allow 'Nginx HTTP'


Después, configuraremos el proxy inverso actualizando la configuración predeterminada de NGinx:


$ sudo vim /etc/nginx/sites-available/default


Comenta la configuración actual de /location que intenta servir archivos estáticos y copia-pega lo siguiente dentro del bloque server:


# Configuración original (comentar o eliminar para usar la nueva)
#location / {
#   try_files $uri $uri/ =404;
#}

location / {
    proxy_pass http://localhost:11434;
    proxy_set_header Host localhost:11434;

    # Manejar solicitudes preflight de CORS
    if ($request_method = OPTIONS) {
        add_header Access-Control-Allow-Origin *;
        add_header Access-Control-Allow-Methods *;
        add_header Access-Control-Allow-Headers "Content-Type, Authorization";
        add_header Access-Control-Max-Age 3600;
        return 200;
    }

    # Configurar encabezados CORS para otras respuestas
    add_header Access-Control-Allow-Origin *;
    add_header Access-Control-Allow-Methods *;
    add_header Access-Control-Allow-Headers "Content-Type, Authorization";

    proxy_set_header Origin "";
    proxy_set_header Referer "";
}


Reinicia NGinx para aplicar los cambios:


$ sudo systemctl restart nginx


Por último, abre el puerto HTTP para tu IP (o cualquier servidor autorizado). Ve a la consola de AWS, haz clic en los detalles de la instancia (en mi caso DeepSeek AI), ve a la pestaña Seguridad, luego al enlace Grupos de seguridad, haz clic en Editar reglas de entrada, agrega una nueva regla, establece el puerto en 80 y selecciona My IP. Finalmente, guarda los cambios.

Abre tu navegador y ve a la dirección IP de tu instancia. Deberías ver un mensaje indicando que Ollama está ejecutándose.

Fuentes:
https://www.xataka.com/basics/como-instalar-deepseek-para-usarlo-forma-local-tu-ordenador-windows-macos-gnu-linux

https://platzi.com/blog/deepseek-r1-instalar-local/

https://www.bujarra.com/ollama-empezando-con-la-ia-local/


3 comentarios :

MegamanX dijo...

Tengo una duda, si quisiera instalar en una máquina offline, sin conexión de internet, puedo descargar todo y colocar luego toda esa instalación en la máquina offline?

Anónimo dijo...

Si

Anónimo dijo...

manuel el popeye

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.