-
▼
2025
(Total:
470
)
-
▼
abril
(Total:
36
)
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
Con 21 años creó una IA que engaña en entrevistas ...
-
Anthropic presenta Claude para la Educación, una I...
-
Microsoft presenta la máquina de recuperación rápi...
-
No hace falta pagar para tener un escritorio remot...
-
La Policía Nacional detiene en España a 16 persona...
-
Microsoft filtró una clave de activación un mes an...
-
Los internautas españoles claman contra la Justici...
-
Movistar no levanta el bloqueo de las IP de Cloudf...
-
Sanción a Apple de 150M€ por abuso de posición dom...
-
Archivos de FGR, SAT y más de 1,500 sitios mexican...
-
Gen-4, la IA que genera videos más realistas que Sora
-
Microsoft Word permite resumir documentos de cient...
-
Vulnerabilidades críticas en PHP y Apache Tomcat
-
Microsoft quiere cambiar el pantallazo azul de la ...
-
El Gobierno de España aprueba el DNI digital, que ...
-
Elon Musk afirma que le ha dado a la madre de su ú...
-
Un juzgado admite la demanda millonaria de la OCU ...
-
Google admite no saber por qué su IA aprende cosas...
-
Filtrados 2.800 millones de usuarios de Twitter/X,...
-
Una mujer recupera el habla 18 años después de un ...
-
Amazon Nova Act es la nueva IA que puede navegar l...
-
Un usuario se compró un lavavajillas conectado de ...
-
Hackean la megafonía de El Corte Inglés e incitan ...
-
Temperatura GPU (Tarjeta Gráfica)
-
Cifrado extremo a extremo ¿qué es?
-
Bjarne Stroustrup, creador de C++, aconseja a los ...
-
OpenAI aumenta las recompensas de su programa de v...
-
Sistema de archivos ReFS vs NTFS en Windows 11
-
Instalar LM Studio (IA LLM en local)
-
La banda del Niño Skin consiguió 'empurar' al guar...
-
-
▼
abril
(Total:
36
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
- Elon Musk cobra la API de Twitter (X) a precio de oro: esta app te permite usarla gratis
- Microsoft cerrará Skype en mayo y lo reemplazará por Teams
Entradas populares
-
El joven facilitó datos de 22 guardias civiles a la banda, que realizó seguimientos, colocó balizas y tendió trampas a los agentes que les i...
-
China afirma haber desarrollado un satélite con una tecnología sin precedentes que le permite captar detalles faciales humanos con una res...
-
La Comisaría General de Información sostiene en el juzgado 50 de Madrid, que investiga los hechos, que el robo habría sido efectuado por A...
Instalar LM Studio (IA LLM en local)
Una de las mejores opciones de instalar DeepSeek u otro modelo LLM es instalarlo en tu PC es a través de LM Studio. Esta aplicación se presenta como una de las soluciones más accesibles para instalar y gestionar distintos modelos de IA. Además, es compatible con Windows, macOS y Linux.
Algunas de las características más interesantes de los LLM disponibles incluyen la capacidad de generar texto coherente y creativo, la posibilidad de realizar tareas de procesamiento de lenguaje natural como la revisión y el resumen de texto, y la oportunidad de desarrollar aplicaciones inteligentes que puedan comprender y responder a las necesidades del usuario de manera más eficiente.
Introducción
Hugging Face, la empresa reconocida por su liderazgo en el desarrollo de herramientas y modelos de inteligencia artificial, ha lanzado recientemente LM Studio, una herramienta diseñada para facilitar el entrenamiento y despliegue de modelos de lenguaje grande (LLM) directamente en máquinas locales.
Esta herramienta representa un avance significativo, especialmente para desarrolladores y científicos de datos que buscan optimizar y personalizar sus modelos sin depender de infraestructura en la nube.
¿Qué es LM Studio?
LM Studio es una aplicación totalmente gratuita que nos permite descargar distintos modelos de lenguaje de IA para que lo usemos sin necesidad de conexión a internet. Prometedor, ¿eh? Se diferencia de otras herramientas por hacer un uso más eficiente de nuestro hardware para llevar a cabo las mismas tareas.
Si bien Ollama también puede ser una opción viable, esta también posee menos opciones de configuración para instalar DeepSeek-R1. Además, LM Studio nos permite seleccionar entre distintas versiones de un mismo modelo, lo que le permite ajustarse a nuestras preferencias exhaustivamente.
Beneficios que LMstudio ofrece a los usuarios
Conoce los beneficios que LMstudio te ofrece:
- Optimización de recursos: Sus diferentes versiones optimizan el rendimiento según el equipo que tengas, garantizando que cada recurso se aproveche al máximo para ejecutar modelos de IA de manera fluida y eficaz.
- Flexibilidad y versatilidad: Ya sea que trabajes en Windows, macOS o Linux, puedes seleccionar y ejecutar modelos según tus requerimientos, desde generación de texto hasta análisis de datos complejos.
- Facilidad de uso: Esto te permite concentrarte en tus proyectos, sin necesidad de perder tiempo en configuraciones complejas.
- Acceso a modelos avanzados: Gracias a esto, puedes trabajar con tecnología de vanguardia en el campo de la inteligencia artificial, facilitando la creación de aplicaciones y soluciones innovadoras.
Características clave de LM Studio
-
Entrenamiento local: LM Studio permite entrenar modelos LLM directamente en tu máquina. Esto es ideal para entornos donde la latencia o la seguridad son preocupaciones críticas. Los usuarios pueden ajustar sus modelos en función de datos específicos sin necesidad de transferirlos a servidores remotos, lo que es especialmente valioso en escenarios que requieren alta privacidad y control total sobre el entorno de desarrollo.
-
Interfaz intuitiva: La herramienta está diseñada para ser accesible, incluso para usuarios que no son expertos en programación. Con una interfaz intuitiva, LM Studio guía a los usuarios a través del proceso de entrenamiento y ajuste de modelos, facilitando su uso y permitiendo que más personas, incluidas aquellas con menos experiencia en IA, puedan aprovechar al máximo las capacidades de los modelos LLM.
-
Compatibilidad con modelos preentrenados: LM Studio es compatible con los modelos preentrenados disponibles en Hugging Face, como BERT, GPT, y otros. Esto permite a los usuarios comenzar rápidamente con modelos LLM ya optimizados y ajustarlos según sus necesidades específicas. Esta característica es clave para aquellos que buscan implementar soluciones de IA sin necesidad de entrenar un modelo desde cero, lo que ahorra tiempo y recursos.
-
Personalización avanzada: Aparte de utilizar modelos preentrenados, LM Studio permite personalizar y ajustar los modelos según los requisitos específicos del proyecto. Esta personalización puede incluir la adaptación de modelos a conjuntos de datos particulares, la modificación de hiperparámetros, y la integración de nuevas capas de procesamiento que optimicen el rendimiento en tareas específicas.
-
Despliegue local y en la nube: Aunque LM Studio está diseñado principalmente para entrenar y desplegar modelos localmente, también ofrece la flexibilidad de desplegar modelos en la nube si así se requiere. Esto permite a los desarrolladores probar y validar sus modelos localmente antes de transferirlos a un entorno de producción basado en la nube, donde pueden beneficiarse de la escalabilidad y la infraestructura gestionada.
Comprobar los requisitos del sistema
Antes de empezar, comprueba que tu ordenador cumple con los requisitos mínimos para ejecutar LM Studio. Los dos requisitos más significativos son el procesador y la memoria RAM. Para un PC con Windows se sugieren 16 GB y procesador compatible con AVX2 para que LM Studio funcione correctamente.
- Abre Información del sistema.
- Busca Procesador y anota su nombre completo.
- Visita la web ARK de Intel o del sitio equivalente según la marca del procesador (AMD, etc.) y localiza tu procesador por su nombre o numeración completa.
- En el caso de la web de Intel, en el apartado Tecnologías Avanzadas, comprueba si tu procesador soporta AVX2 en la sección Extensiones del conjunto de instrucciones.
Cómo instalar DeepSeek-R1 con LM Studio
La verdad es que se trata de un proceso realmente sencillo, por lo que no va a requerir mucho de tu tiempo. En primer lugar, visita el sitio oficial de LM Studio para descargar la versión compatible con tu sistema operativo.
LM Studio es una herramienta fenomenal para iniciarse y ejecutar modelos LLM de manera local en tu ordenador. Incluso aunque sea un ordenador relativamente modesto, siempre y cuando cumpla con los requisitos mínimos. LM Studio está disponible para Mac, Windows y Linux.
Una vez que la hayas descargado e instalado sin problemas (no tiene ningún tipo de dificultad, solo es darle a «siguiente» repetidamente), abre LM Studio en tu PC. Se te desplegará un menú bastante limpio y ordenado.
El siguiente paso será ir a las opciones situadas en la barra vertical de la izquierda y pinchar en «Discover».
Una vez dentro de la opción, te aparecerá una barra de búsqueda en la parte de arriba de la pantalla para que busques tu propio modelo de IA. En nuestro caso, estamos buscando «DeepSeek-R1».
Como ves, el programa te mostrará diversas variantes de DeepSeek. Ahora tienes que seleccionar el modelo que mejor se adapte a ti. En mi caso, he seleccionado «DeepSeek-R1 Distill Qwen 7B». Es un modelo más ligero que sirve para mis búsquedas a nivel de usuario. Tan solo tienes que pinchar en «Download» y listo.
Para ejecutar tu modelo descargado, solo tienes que acceder a «My models» (justo encima de la lupa de Discover). Tan solo te queda pulsar en «Launch» para iniciar DeepSeek en tu propio sistema local. La inmensa ventaja que esto conlleva con respecto a las versiones web es que podrás hacer uso del mismo sin necesidad de conexión a internet. Además, no tienes por qué preocuparte de utilizarlo en tu idioma (aunque la interfaz de LM Studio esté en inglés). DeepSeek posee la capacidad de hablar en todas las lenguas.
Como ves, esta sencilla y accesible forma de acceder a DeepSeek-R1 merece mucho la pena para cualquier tipo de usuario y experimentar con la IA cuando quieras.
Adjuntar archivos y RAG
Los modelos LLM están limitados a los datos con los que fueron entrenados y no pueden incorporar información nueva o privada por sí mismos.
La opción Retrieval Augmented Generation (RAG) resuelve esto al habilitar el envío de documentos propios y privados desde nuestro ordenador para que el modelo los utilice y los tenga en cuenta como referencia para responder a las consultas.
Esto genera respuestas más precisas y relevantes, personalizadas según el contenido proporcionado.
- En LM Studio puedes subir hasta 5 archivos a la vez, con un tamaño máximo combinado de 30MB. Los formatos admitidos incluyen PDF, DOCX, TXT y CSV.
- Cuando preguntes a LM Studio sobre esos documentos, sé específico y menciona tantos detalles como sea posible para ayudar al modelo a recuperar la información más relevante de esos documentos.
- El modelo LLM analizará tu consulta y tus documentos para generar una respuesta. Puedes experimentar usando distintos documentos y probar con diferentes consultas o prompts.
—Ejemplo: Si cargas un contrato particular o un convenio privado en formato PDF, por ejemplo, puedes adjuntarlo a la consulta y preguntarle al modelo detalles específicos sobre los términos.
Modo 'Developer' y opciones avanzadas en LM Studio
El modo Developer en LM Studio ofrece opciones adicionales y configuraciones para controlar mejor el modelo LLM, como habilitar integraciones con aplicaciones externas, optimizar el rendimiento para tareas específicas o ajustar la precisión de las respuestas.
- Temperatura: controla el nivel de aleatoriedad en las respuestas del modelo. Valores bajos generan respuestas más coherentes y predecibles y valores altos introducen mayor variabilidad y ‘creatividad’ (y también más riesgo de incoherencias.)
- Top-K y Top-P: determinan cuántas opciones considerar al generar texto para equilibrar entre la variabilidad y precisión de las respuestas. Top-K para producir respuestas más rígidas y Top-P para introducir más flexibilidad.
- System Prompt: permite personalizar el contexto
inicial o las instrucciones previas que se le dan al modelo LLM antes de
responder a las consultas como establecer el tono y estilo ‘controlar’ su roleplay o comportamiento (‘Eres un experto en [tema]', 'Sé conciso en las respuestas’ o ‘incluye ejemplos en tus respuestas’)
—Ejemplo: Si utilizas el modelo para resumir texto puedes ajustar la temperatura a un valor bajo para obtener respuestas más concisas y predecibles. O, si utilizas LM Studio para escribir correos electrónicos profesionales, puedes indicarle 'Actúa como un asistente profesional. Escribe mensajes claros, formales y orientados a la acción.'
■ Modificar estas opciones puede tener impacto en el rendimiento. Por ejemplo, para optimizar el uso de recursos, como la RAM y el CPU. También afectan a la calidad de las respuestas, mejorando su relevancia y adaptabilidad.
Ventajas de ejecutar modelos LLM en tu ordenador personal
- Privacidad: Trabajar con documentos personales como contratos, notas, cartas o diarios sin necesidad de subirlos a servicios externos protege tu información sensible.
- Autonomía: No dependes de una conexión a Internet ni de servidores externos, lo que garantiza un acceso continuo incluso sin conectividad.
- Optimización: Puedes personalizar el modelo para tareas específicas, como automatización de informes o generación de contenido relacionado con tu ámbito de estudio o trabajo.
- Ahorro: Si no necesitas mucha potencia puedes evitar el pago de suscripciones o las limitaciones de las versiones con opción gratuita.
- Aprendizaje: Aprender sobre cómo funcionan los
modelos de lenguaje y experimentar con diferentes configuraciones ayuda a
conocer cómo utilizarlos mejor. Familiarizarte con esta tecnología te
permitirá explorar nuevas formas de generar ideas creativas y resolver problemas.
Fuentes:
https://www.softzone.es/noticias/metabits/instalar-facil-deepseek-r1-pc/
https://telefonicatech.com/blog/guia-para-instalar-lm-studio
Entradas relacionadas:






0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.