Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
564
)
-
▼
abril
(Total:
130
)
-
¿Cuáles son los mejores sistemas operativos para l...
-
¿Por qué Graphene OS sólo es compatible con los te...
-
Western Digital anuncia discos duros de 40 TB para...
-
Vulnerabilidad crítica en la función extract() de ...
-
#laligagate, la movilización de usuarios y webs pa...
-
Operación Bonanza, una estafa piramidal de más de ...
-
Ucrania equipa sus drones con malware para sabotea...
-
Proxmox lanza la versión 8.4 de su plataforma de v...
-
Los primeros robots humanoides en correr una media...
-
Vulnerabilidad Windows NTLM explotada para robo de...
-
Vulnerabilidad en Cisco Webex permite ejecutar cód...
-
"ChatGPT es mi amigo y mi terapeuta": cada vez más...
-
Onorato IA, el loro robot que acompaña, habla y cu...
-
Investigadores descubren una nueva forma de evitar...
-
Alerta por la nueva función de Instagram que muest...
-
Un abogado cita sentencias "inexistentes" inventad...
-
Cuáles son los principales ataques a modelos de in...
-
RAID y ZFS: ¿Qué son y para qué sirven?
-
La justicia de Estados Unidos determina que Google...
-
Hackeó la Xbox antes que nadie y de paso logró alg...
-
Alertan sobre el aumento de los casos de clonación...
-
Windows 7 Elite Edition, ¿por qué no puede ser así...
-
OpenAI presenta o3 y o4-mini, sus modelos de razon...
-
Utilizar la IA de OpenAI para averiguar la ubicaci...
-
Meta empieza a usar lo que publicas en Facebook e ...
-
Los teléfonos Android se reiniciarán solos tras 3 ...
-
Make web mapping (open source) great again
-
El disco en PS5 de Indiana Jones y el Gran Círculo...
-
Desarrollan una herramienta de IA financiada por e...
-
ChatGPT se convierte en la aplicación móvil más de...
-
Google Chrome corrige un error de privacidad que a...
-
Fortinet advierte que atacantes pueden conservar e...
-
4chan hackeado, roban datos personales y el código...
-
La vida útil de los certificados SSL/TLS se reduci...
-
ServerlessHorrors: la web que recoge las peores pe...
-
Estados Unidos deja atrás las cintas magnéticas co...
-
FACUA pide a la AEPD que investigue a Cecotec por ...
-
Le han enseñado todos los capítulos de ‘Tom y Jerr...
-
¿Qué son los «embeddings» en un LLM?
-
¿Qué es una ventana de contexto en un LLM?
-
Diferencias entre los procesadores Ryzen, Threadri...
-
Los videojuegos ya generan más dinero con micropag...
-
La historia de la Inteligencia Artificial (IA)
-
Duelo de titanes: procesadores Intel Xeon y AMD EPYC
-
Firebase Studio de Google te permite programar gra...
-
Jeff Bezos funda una compañía de coches eléctricos...
-
Linus Torvalds se rinde ante Git: "Es más popular ...
-
La promesa de AMD Strix Halo de jugar con un PC Ga...
-
Google convierte cualquier documento en un pódcast...
-
OpenSSH 10 se despide de DSA y da la bienvenida al...
-
Vulnerabilidad de Windows aprovechada para instala...
-
Los procesadores fotónicos, infinitamente más rápi...
-
Millones de ordenadores sumergidos en fluidos para...
-
Hackean el sitio de filtraciones del grupo de rans...
-
AMD anuncia los procesadores Ryzen 8000HX para por...
-
Disponible Commandos: Origins, una precuela que re...
-
Samsung Ballie, un robot de uso doméstico utiliza ...
-
Google lanza un protocolo abierto para que los age...
-
Anbernic RG 557, una consola portátil con Android ...
-
Archivo JPEG en WhatsApp para Windows podría ser u...
-
Tranquilo y arrepentido, así se ha mostrado el Alc...
-
Cecotec fue hackeada en 2023 y lo dice ahora: roba...
-
El uso de IA generativa hace más "tontas" a las pe...
-
Microsoft despide a una ingeniera marroquí por neg...
-
Google anuncia Sec-Gemini, un modelo de IA para re...
-
Asus, Dell, HP, Lenovo y Razer detienen sus envíos...
-
Qué es el Model Context Protocol (MCP) y cuál es s...
-
Android 16 llega hoy a los móviles Xiaomi
-
Donald Trump cree que Estados Unidos puede fabrica...
-
¿Cuánto dinero ha perdido Apple por los aranceles ...
-
Aseguran haber robado los datos de la Lista Robins...
-
La empresa matriz de Kellogg's, víctima de un cibe...
-
FreeDOS 1.4, el DOS de código abierto
-
Shotcut 25.03 ya está disponible
-
Apple ha hecho algo para mitigar los aranceles: fl...
-
Deepseek-R1: El Modelo Revolucionario que Eleva lo...
-
El bufete de abogados de Javier Tebas también usa ...
-
El CEO de Google advierte: su inteligencia artific...
-
Desarticulada una organización que creaba vídeos d...
-
La ONU alerta: la IA podría destruir más de 8 mill...
-
China anuncia un cable que transmite video 8K y al...
-
OpenAI podría añadir marcas de agua visibles a las...
-
Círculo azul de Instagram con Meta AI: qué es y có...
-
Las tecnológicas chinas apuestan por la IA con mod...
-
Gestor de paquetes Debian APT 3.0 con una interfaz...
-
Restaurar un SSD con el método del ciclo de energía
-
El invierno de la IA: así fue el período en el que...
-
Comprar un PC con ARM en 2025
-
NVIDIA publica todas sus tecnologías PhysX y Flow ...
-
Desarrollar software en 2027 será como dirigir una...
-
Así está cambiando la IA la forma en que el mundo ...
-
Crea un pasaporte falso en cinco minutos con ChatG...
-
China ha comenzado la producción masiva de batería...
-
Meta presenta Llama 4, su nuevo modelo LLM de inte...
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
-
▼
abril
(Total:
130
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Instagram sumó en los últimos días una nueva herramienta que permite compartir la ubicación exacta de los usuarios en tiempo real . Es...
-
Uno de los casos más extremos recogidos en la web es el de un usuario de Google Cloud que, tras pagar solo 50 dólares mensuales, despertó un...
-
El Foro de Autoridades de Certificación/Navegadores ha votado a favor de reducir significativamente la vida útil de los certificados SSL/T...
Instalar LM Studio (IA LLM en local)
Una de las mejores opciones de instalar DeepSeek u otro modelo LLM es instalarlo en tu PC es a través de LM Studio. Esta aplicación se presenta como una de las soluciones más accesibles para instalar y gestionar distintos modelos de IA. Además, es compatible con Windows, macOS y Linux.
Algunas de las características más interesantes de los LLM disponibles incluyen la capacidad de generar texto coherente y creativo, la posibilidad de realizar tareas de procesamiento de lenguaje natural como la revisión y el resumen de texto, y la oportunidad de desarrollar aplicaciones inteligentes que puedan comprender y responder a las necesidades del usuario de manera más eficiente.
Introducción
Hugging Face, la empresa reconocida por su liderazgo en el desarrollo de herramientas y modelos de inteligencia artificial, ha lanzado recientemente LM Studio, una herramienta diseñada para facilitar el entrenamiento y despliegue de modelos de lenguaje grande (LLM) directamente en máquinas locales.
Esta herramienta representa un avance significativo, especialmente para desarrolladores y científicos de datos que buscan optimizar y personalizar sus modelos sin depender de infraestructura en la nube.
¿Qué es LM Studio?
LM Studio es una aplicación totalmente gratuita que nos permite descargar distintos modelos de lenguaje de IA para que lo usemos sin necesidad de conexión a internet. Prometedor, ¿eh? Se diferencia de otras herramientas por hacer un uso más eficiente de nuestro hardware para llevar a cabo las mismas tareas.
Si bien Ollama también puede ser una opción viable, esta también posee menos opciones de configuración para instalar DeepSeek-R1. Además, LM Studio nos permite seleccionar entre distintas versiones de un mismo modelo, lo que le permite ajustarse a nuestras preferencias exhaustivamente.
Beneficios que LMstudio ofrece a los usuarios
Conoce los beneficios que LMstudio te ofrece:
- Optimización de recursos: Sus diferentes versiones optimizan el rendimiento según el equipo que tengas, garantizando que cada recurso se aproveche al máximo para ejecutar modelos de IA de manera fluida y eficaz.
- Flexibilidad y versatilidad: Ya sea que trabajes en Windows, macOS o Linux, puedes seleccionar y ejecutar modelos según tus requerimientos, desde generación de texto hasta análisis de datos complejos.
- Facilidad de uso: Esto te permite concentrarte en tus proyectos, sin necesidad de perder tiempo en configuraciones complejas.
- Acceso a modelos avanzados: Gracias a esto, puedes trabajar con tecnología de vanguardia en el campo de la inteligencia artificial, facilitando la creación de aplicaciones y soluciones innovadoras.
Características clave de LM Studio
-
Entrenamiento local: LM Studio permite entrenar modelos LLM directamente en tu máquina. Esto es ideal para entornos donde la latencia o la seguridad son preocupaciones críticas. Los usuarios pueden ajustar sus modelos en función de datos específicos sin necesidad de transferirlos a servidores remotos, lo que es especialmente valioso en escenarios que requieren alta privacidad y control total sobre el entorno de desarrollo.
-
Interfaz intuitiva: La herramienta está diseñada para ser accesible, incluso para usuarios que no son expertos en programación. Con una interfaz intuitiva, LM Studio guía a los usuarios a través del proceso de entrenamiento y ajuste de modelos, facilitando su uso y permitiendo que más personas, incluidas aquellas con menos experiencia en IA, puedan aprovechar al máximo las capacidades de los modelos LLM.
-
Compatibilidad con modelos preentrenados: LM Studio es compatible con los modelos preentrenados disponibles en Hugging Face, como BERT, GPT, y otros. Esto permite a los usuarios comenzar rápidamente con modelos LLM ya optimizados y ajustarlos según sus necesidades específicas. Esta característica es clave para aquellos que buscan implementar soluciones de IA sin necesidad de entrenar un modelo desde cero, lo que ahorra tiempo y recursos.
-
Personalización avanzada: Aparte de utilizar modelos preentrenados, LM Studio permite personalizar y ajustar los modelos según los requisitos específicos del proyecto. Esta personalización puede incluir la adaptación de modelos a conjuntos de datos particulares, la modificación de hiperparámetros, y la integración de nuevas capas de procesamiento que optimicen el rendimiento en tareas específicas.
-
Despliegue local y en la nube: Aunque LM Studio está diseñado principalmente para entrenar y desplegar modelos localmente, también ofrece la flexibilidad de desplegar modelos en la nube si así se requiere. Esto permite a los desarrolladores probar y validar sus modelos localmente antes de transferirlos a un entorno de producción basado en la nube, donde pueden beneficiarse de la escalabilidad y la infraestructura gestionada.
Comprobar los requisitos del sistema
Antes de empezar, comprueba que tu ordenador cumple con los requisitos mínimos para ejecutar LM Studio. Los dos requisitos más significativos son el procesador y la memoria RAM. Para un PC con Windows se sugieren 16 GB y procesador compatible con AVX2 para que LM Studio funcione correctamente.
- Abre Información del sistema.
- Busca Procesador y anota su nombre completo.
- Visita la web ARK de Intel o del sitio equivalente según la marca del procesador (AMD, etc.) y localiza tu procesador por su nombre o numeración completa.
- En el caso de la web de Intel, en el apartado Tecnologías Avanzadas, comprueba si tu procesador soporta AVX2 en la sección Extensiones del conjunto de instrucciones.
Cómo instalar DeepSeek-R1 con LM Studio
La verdad es que se trata de un proceso realmente sencillo, por lo que no va a requerir mucho de tu tiempo. En primer lugar, visita el sitio oficial de LM Studio para descargar la versión compatible con tu sistema operativo.
LM Studio es una herramienta fenomenal para iniciarse y ejecutar modelos LLM de manera local en tu ordenador. Incluso aunque sea un ordenador relativamente modesto, siempre y cuando cumpla con los requisitos mínimos. LM Studio está disponible para Mac, Windows y Linux.
Una vez que la hayas descargado e instalado sin problemas (no tiene ningún tipo de dificultad, solo es darle a «siguiente» repetidamente), abre LM Studio en tu PC. Se te desplegará un menú bastante limpio y ordenado.
El siguiente paso será ir a las opciones situadas en la barra vertical de la izquierda y pinchar en «Discover».
Una vez dentro de la opción, te aparecerá una barra de búsqueda en la parte de arriba de la pantalla para que busques tu propio modelo de IA. En nuestro caso, estamos buscando «DeepSeek-R1».
Como ves, el programa te mostrará diversas variantes de DeepSeek. Ahora tienes que seleccionar el modelo que mejor se adapte a ti. En mi caso, he seleccionado «DeepSeek-R1 Distill Qwen 7B». Es un modelo más ligero que sirve para mis búsquedas a nivel de usuario. Tan solo tienes que pinchar en «Download» y listo.
Para ejecutar tu modelo descargado, solo tienes que acceder a «My models» (justo encima de la lupa de Discover). Tan solo te queda pulsar en «Launch» para iniciar DeepSeek en tu propio sistema local. La inmensa ventaja que esto conlleva con respecto a las versiones web es que podrás hacer uso del mismo sin necesidad de conexión a internet. Además, no tienes por qué preocuparte de utilizarlo en tu idioma (aunque la interfaz de LM Studio esté en inglés). DeepSeek posee la capacidad de hablar en todas las lenguas.
Como ves, esta sencilla y accesible forma de acceder a DeepSeek-R1 merece mucho la pena para cualquier tipo de usuario y experimentar con la IA cuando quieras.
Adjuntar archivos y RAG
Los modelos LLM están limitados a los datos con los que fueron entrenados y no pueden incorporar información nueva o privada por sí mismos.
La opción Retrieval Augmented Generation (RAG) resuelve esto al habilitar el envío de documentos propios y privados desde nuestro ordenador para que el modelo los utilice y los tenga en cuenta como referencia para responder a las consultas.
Esto genera respuestas más precisas y relevantes, personalizadas según el contenido proporcionado.
- En LM Studio puedes subir hasta 5 archivos a la vez, con un tamaño máximo combinado de 30MB. Los formatos admitidos incluyen PDF, DOCX, TXT y CSV.
- Cuando preguntes a LM Studio sobre esos documentos, sé específico y menciona tantos detalles como sea posible para ayudar al modelo a recuperar la información más relevante de esos documentos.
- El modelo LLM analizará tu consulta y tus documentos para generar una respuesta. Puedes experimentar usando distintos documentos y probar con diferentes consultas o prompts.
—Ejemplo: Si cargas un contrato particular o un convenio privado en formato PDF, por ejemplo, puedes adjuntarlo a la consulta y preguntarle al modelo detalles específicos sobre los términos.
Modo 'Developer' y opciones avanzadas en LM Studio
El modo Developer en LM Studio ofrece opciones adicionales y configuraciones para controlar mejor el modelo LLM, como habilitar integraciones con aplicaciones externas, optimizar el rendimiento para tareas específicas o ajustar la precisión de las respuestas.
- Temperatura: controla el nivel de aleatoriedad en las respuestas del modelo. Valores bajos generan respuestas más coherentes y predecibles y valores altos introducen mayor variabilidad y ‘creatividad’ (y también más riesgo de incoherencias.)
- Top-K y Top-P: determinan cuántas opciones considerar al generar texto para equilibrar entre la variabilidad y precisión de las respuestas. Top-K para producir respuestas más rígidas y Top-P para introducir más flexibilidad.
- System Prompt: permite personalizar el contexto
inicial o las instrucciones previas que se le dan al modelo LLM antes de
responder a las consultas como establecer el tono y estilo ‘controlar’ su roleplay o comportamiento (‘Eres un experto en [tema]', 'Sé conciso en las respuestas’ o ‘incluye ejemplos en tus respuestas’)
—Ejemplo: Si utilizas el modelo para resumir texto puedes ajustar la temperatura a un valor bajo para obtener respuestas más concisas y predecibles. O, si utilizas LM Studio para escribir correos electrónicos profesionales, puedes indicarle 'Actúa como un asistente profesional. Escribe mensajes claros, formales y orientados a la acción.'
■ Modificar estas opciones puede tener impacto en el rendimiento. Por ejemplo, para optimizar el uso de recursos, como la RAM y el CPU. También afectan a la calidad de las respuestas, mejorando su relevancia y adaptabilidad.
Ventajas de ejecutar modelos LLM en tu ordenador personal
- Privacidad: Trabajar con documentos personales como contratos, notas, cartas o diarios sin necesidad de subirlos a servicios externos protege tu información sensible.
- Autonomía: No dependes de una conexión a Internet ni de servidores externos, lo que garantiza un acceso continuo incluso sin conectividad.
- Optimización: Puedes personalizar el modelo para tareas específicas, como automatización de informes o generación de contenido relacionado con tu ámbito de estudio o trabajo.
- Ahorro: Si no necesitas mucha potencia puedes evitar el pago de suscripciones o las limitaciones de las versiones con opción gratuita.
- Aprendizaje: Aprender sobre cómo funcionan los
modelos de lenguaje y experimentar con diferentes configuraciones ayuda a
conocer cómo utilizarlos mejor. Familiarizarte con esta tecnología te
permitirá explorar nuevas formas de generar ideas creativas y resolver problemas.
Fuentes:
https://www.softzone.es/noticias/metabits/instalar-facil-deepseek-r1-pc/
https://telefonicatech.com/blog/guia-para-instalar-lm-studio
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.