Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
192
)
-
▼
febrero
(Total:
27
)
- OCuLink, el mejor conector para gráficas externas ...
- Así es la pila atómica que ha presentado China cap...
- Instalar DeepSeek en local en Android con Termux
- Todos los modelos de IA de OpenAI
- Las impresoras 3D en Estados Unidos podrían ser in...
- El Pentágono bloquea DeepSeek en menos de una sema...
- Limpieza y mantenimiento de una tarjeta gráfica
- Conectores PCI Express x16, x8, x4 y x1: diferenci...
- Reportan algunos problemas para las GeForce RTX 5090
- Microsoft presenta el Surface USB4 Dock por 99$
- NVIDIA Studio Voice convierte el mediocre micrófon...
- OpenAI quiere diseñar robots humanoides impulsados...
- Europa anuncia OpenEuroLLM, su plan para plantarle...
- OpenAI quiere reemplazar los smartphones con un di...
- Análisis de las principales vulnerabilidades explo...
- WhatsApp detecta un ataque de spyware tipo Pegasus...
- El coste real de DeepSeek no fue de 6 millones de ...
- Windows Paint tendrá un botón de Copilot para acel...
- Guía DeepSeek: funciones y cosas que puedes hacer ...
- Cómo utilizar un SSD NVMe en Raspberry Pi
- OpenAI responde a DeepSeek publicando o3 para todos
- Cómo crear gráficos a partir de datos con ChatGPT
- App falsa de DeepSeek roba datos en Mac
- Deep Research, nueva herramienta de investigación ...
- NoName057 realiza nuevos ataques DDoS España: a la...
- Detenida en Valencia una pareja clave en la gestió...
- Manual funcionamiento GParted (edita, modifica y r...
-
▼
febrero
(Total:
27
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Cómo instalar DeepSeek en tu ordenador , para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar...
-
Solo hizo falta una Raspberry Pi Pico de 12 euros y 43 segundos para que un hacker se saltara la seguridad de BitLocker para acceder a todos...
-
Un hombre y una mujer han sido detenidos en la ciudad de Valencia como parte de un macrooperativo internacional en el que han intervenido ...
Instalar DeepSeek en local en Android con Termux
Como modelo Open Source que es, DeepSeek admite la instalación local para así utilizar el chatbot sin la nube. Y, aunque parezca imposible, pude instalar el modelo en mi Android: para ello utilicé una aplicación de terminal y un instalador con DeepSeek reducido. La experiencia es mejor de lo que me esperaba, sobre todo en términos de privacidad.
- Es posible instalar DeepSeek en el teléfono y usar la IA sin conexión a Internet
- Esto tiene una notable ventaja: la privacidad
Consultar una IA generativa no entraña demasiado misterio, ya que las más importantes poseen su propia aplicación Android y, además, suelen ofrecer un acceso web. Otro cantar es tener el modelo instalado para así dejar la menor cantidad de datos posible fuera del dispositivo, normalmente el ordenador. También el móvil: modelos como llama o DeepSeek lo hacen posible.
Tener DeepSeek instalado en el móvil con Termux
Cuando detallé las distintas maneras de usar DeepSeek mencioné la instalación en PC, Mac o Linux haciendo uso del instalador Ollama. Es el mismo proceso para Android, sólo que requiere un paso adicional: la instalación de una herramienta de terminal. Para eso está Termux, un emulador de terminal que incluye una gran cantidad de paquetes de Linux.
Dado que, al fin y al cabo, Android mantiene su núcleo de Linux, resulta posible instalar DeepSeek en el teléfono. Su rendimiento se verá anclado al propio del móvil: cuanto más potente sea su hardware mejor va a funcionar respondiendo las consultas; sin que esto implique que deje de funcionar en Android poco potentes. Además, tener el modelo en local reduce las capacidades del chatbot, como la búsqueda web.
Tener DeepSeek instalado disminuye su potencial en comparación con la web o la aplicación. Aun así, tiene una notable ventaja sobre el resto:
Además, puedo usar el chatbot sin tener conexión a Internet. Otra ventaja bastante útil a la hora de necesitar una herramienta de consulta en viajes, por ejemplo: hacer uso de la IA en el avión resulta más que posible. Si cubre o no las necesidades de quien necesite la herramienta ya dependerá de dichas necesidades.
Tras la pelea con el terminal, DeepSeek R1 saluda en mi Android
Me descargué la app Termux al Samsung Galaxy S25 que estoy analizando, actualicé los paquetes de la herramienta siguiendo este pormenorizado tutorial de Reddit creado por el usuario PinGUY, descargué DeepSeek R1 tras clonar el GitHub de Ollama y, después de la pertinente descarga e instalación del modelo, la IA apareció en mi terminal.
Funciona bien en un Sony Xperia 1 II corriendo LineageOS, un dispositivo de casi 5 años. Mientras lo ejecuto me quedan 2.5GB de memoria libre. Así que podría salirse con la ejecución en un dispositivo con 6 GB, pero sólo un poco.
Termux es un emulador de terminal que permite a los dispositivos Android ejecutar un entorno Linux sin necesidad de acceso root. Está disponible de forma gratuita y se puede descargar desde la página GitHub de Termux.
Después de iniciar Termux, sigue estos pasos para configurar el entorno:
Conceder acceso al almacenamiento:
termux-setup-storage
Este comando permite a Termux acceder al almacenamiento de tu dispositivo Android, facilitando la gestión de archivos.
Actualizar paquetes:
pkg upgrade
Introduzca Y cuando se le solicite para actualizar Termux y todos los paquetes instalados.
Instalar herramientas esenciales:
pkg install git cmake golang
Estos paquetes incluyen Git para el control de versiones, CMake para la construcción de software, y Go, el lenguaje de programación en el que está escrito Ollama.
Ollama es una plataforma para ejecutar localmente grandes modelos. He aquí cómo instalarlo y configurarlo:
Clona el repositorio GitHub de Ollama:
git clone https://github.com/ollama/ollama.git
Navega al directorio de Ollama:
cd ollama
Generar código Go:
go generate ./...
Construye Ollama:
go build .
Iniciar el servidor de Ollama:
./ollama serve &
Ahora el servidor Ollama se ejecutará en segundo plano, permitiéndote interactuar con los modelos.
Descargue y ejecute el modelo deepseek-r1:1.5b:
./ollama run deepseek-r1:1.5b
Pero el modelo 7b puede funcionar. Se ejecuta en mi dispositivo con 8 GB de RAM
./ollama run deepseek-r1
Desde Termux tengo acceso al modelo descargado en mi teléfono y ejecutado en el servidor de Ollama, todo en local. Esto es, logré que mi Samsung Galaxy S25 disponga del potencial de DeepSeek sin que requiera conexión a Internet. Esto acaba con uno de los principales inconvenientes de este LLM y de cualquier otro modelo que se ejecute en la nube: ninguno de mis datos personales, información de consulta y respuestas de la IA salen del teléfono.
No tengo una interfaz de usuario, ya que toda la comunicación se hace en texto a través del terminal. Aun así, me ha sorprendido lo bien que funciona y lo rápido que va en el teléfono: no aprecio excesivo desfase de tiempo entre mi versión local y la propia de la web (conforme acumula respuestas en un mismo chat sí se ralentiza). Y tengo disponible el razonamiento profundo R1; con un modelo algo reducido con respecto al de la web o la app. Es igualmente funcional.
No es mala opción para tener DeepSeek siempre a mano
Fuentes:
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.