Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon DeepSeek presenta un nuevo modelo de IA optimizado: DeepSeek V3-0324 (700GB)


DeepSeek, la empresa china que puso de cabeza a OpenAI y otras empresas tecnológicas, ha lanzado la última versión de su modelo estrella: DeepSeek V3-0324. Esta inesperada actualización introduce mejoras en rendimiento y accesibilidad, posicionándolo como uno de los modelos de IA más avanzados para el usuario final. Una de sus características más llamativas es su capacidad para ejecutarse en un Mac Studio con chip M3 a una velocidad sorprendente.

 



 

 

  • DeepSeek V3-0324 es un nuevo modelo de IA optimizado para ejecutarse en ordenadores de gama alta, como el Mac Studio con chip M3 Ultra.

 

A diferencia de DeepSeek V3, el nuevo modelo, con 685 mil millones de parámetros, mejora significativamente la velocidad y eficiencia del procesamiento. Esto lo convierte en una opción más viable para ejecutarse en ordenadores de consumo de gama alta.



 

Según las primeras pruebas, DeepSeek V3-0324 puede ofrecer un rendimiento superior a 20 tokens por segundo en un Mac Studio M3 Ultra con 512 GB de memoria unificada. Esta velocidad se logra mediante MLX, una biblioteca de código abierto que optimiza la ejecución de modelos de gran tamaño.


 

DeepSeek V3-0324 utiliza cuantificación de 4 bits mediante el complemento mlx-community/DeepSeek-V3-0324-4bit, lo que reduce el tamaño del modelo en disco de 641 GB a unos 352 GB más manejables. Este nivel de optimización permite ejecutar el modelo en hardware que antes se consideraba insuficiente para tareas de IA a gran escala.


Otro cambio notable es el nuevo esquema de licencia. DeepSeek ha publicado la versión V3-0324 bajo la licencia MIT, alejándose de la licencia propietaria de su predecesor. Este cambio permitirá a los desarrolladores integrarlo libremente en proyectos comerciales y de código abierto, ampliando sus posibles aplicaciones. Sin embargo, la empresa aún no ha proporcionado documentación completa (el archivo README está vacío), aunque la comunidad ya ha comenzado a experimentar con el modelo.


 

DeepSeek V3-0324, su modelo de IA más potente y "accesible"

Uno de los aspectos distintivos del lanzamiento de DeepSeek fue su entrenamiento con bajo poder de cómputo. Esto es posible gracias a la arquitectura MoE (Mixture of Experts), que activa solo las partes del modelo necesarias para una tarea específica. A diferencia de modelos más monolíticos como GPT-4.5, DeepSeek divide el modelo en componentes especializados, optimizando así el uso de recursos.



Un Mac Studio con 512GB RAM

 

El aprovechamiento de hardware y técnicas optimizadas se ha ampliado en esta versión, eliminando la necesidad de depender exclusivamente de soluciones en la nube. No obstante, DeepSeek V3-0324 sigue requiriendo un ordenador de gama alta. Un Mac Studio M3 Ultra con 512 GB de memoria cuesta unos 15.000 euros, lo que supone una inversión considerable para quienes deseen ejecutar el modelo de forma local.


 

Aquellos con el hardware adecuado pueden acceder al modelo a través del complemento llm-mlx, ejecutando los siguientes comandos:



llm mlx download-model mlx-community/DeepSeek-V3-0324-4bit
llm chat -m mlx-community/DeepSeek-V3-0324-4bit

 

 Fuentes:

https://hipertextual.com/2025/03/deepseek-nuevo-modelo-ia-se-ejecuta-en-mac-studio

https://huggingface.co/deepseek-ai/DeepSeek-V3-0324


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.