Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Micron lanza la primera memoria LPDRAM SOCAMM2 de 256 GB para centros de datos de IA, siendo 3 veces más rápida y consumiendo un 33% menos


Micron presenta la primera memoria LPDRAM SOCAMM2 de 256 GB para centros de datos de IA, 3 veces más rápida y con un 33% menos de consumo energético, optimizando el rendimiento en aplicaciones de inteligencia artificial.




La llegada de la IA generativa ha empezado a tener más cambios de los que creíamos. En cuestión de unos años hemos visto que esta es capaz de hacer más cosas de las que inicialmente creíamos, pudiendo llegar a programar por su cuenta, escribir correos, noticias, libros, componer música, hacer imágenes o vídeos de todo tipo. Para la industria, esta ha sido como la mayor evolución de una tecnología en décadas y se han agarrado a ella sin querer soltarla. Las empresas tecnológicas están invirtiendo más dinero que nunca en hardware y tecnologías relacionadas con la IA. Al igual que ha aumentado la demanda e inversiones, las compañías de hardware también han ido progresando más rápido y ahora es Micron la que ha tomado la iniciativa con la primera memoria LPDRAM SOCAMM2 de 256 GB del mundo.

Las Big Tech van a invertir más dinero que nunca en este 2026 destinado a un mismo objetivo, la inteligencia artificial. Con una inversión de unos 650.000 millones de dólares, Amazon va en cabeza, pues solo esta ya podrá 200.000 millones este año seguida por otras como Google con 185.000 millones y Meta con 135.000 millones. Microsoft invertirá 105.000 millones de dólares y se está centrando en funciones de IA para Copilot, el próximo sistema operativo Windows 12 y la futura Xbox Magnus.

Micron lanza la primera memoria LPDRAM SOCAMM2 de 256 GB


Además de las Big Tech, tenemos muchas otras empresas que van a invertir mucho dinero. Necesitan comprar hardware para poder entrenar modelos de IA cada vez más complejos al igual que si quieren proporcionar servicios a clientes donde se use esta inteligencia artificial y su alto coste computacional. Ya hemos visto que la industria entera se ha metido de lleno en el sector y esto incluye también empresas de hardware como NVIDIA y AMD con sus GPU y aceleradores. No hay que olvidarse tampoco de la memoria, pues esta es necesaria también y de ahí que los precios subieran tanto. La memoria SOCAMM2 se anunció a finales de 2025 siendo un nuevo formato de memoria compacta de alta densidad para IA.


Solo han pasado unos meses desde entonces y Micron ya ha lanzado la primera memoria LPDRAM SOCAMM2 con 256 GB de capacidad, siendo así un récord de capacidad. Esto lo ha conseguido usando un diseño monolítico con chips LPDDR5X de 32 GB de capacidad, combinando 8 de estos para llegar a esos 256 GB. Tanto para entrenamiento, inferencia y uso de la IA se requiere de una gran cantidad de memoria RAM y VRAM, por lo que son necesarias nuevas soluciones que puedan satisfacer la demanda de este sector tan exigente.

El formato SOCAMM2 consume un tercio de la energía de la memoria RDIMM tradicional y ocupa un 33% de su tamaño

Esta nueva memoria LPDRAM SOCAMM2 de 256 GB llega con una mayor capacidad, una gran eficiencia, baja latencia y escalabilidad con un tamaño pequeño.  Según Raj Narasimhan, vicepresidente sénior de Negocio de Memoria de la Nube de Micron, esta memoria está conectada a la CPU para conseguir una mayor eficiencia energética y un menor consumo. Según indican, ofrece 64 GB más memoria que la SOCAMM2 de 192 GB anterior llegando así a proporcionar 2 TB si se combina con una CPU de 8 canales. En cuanto al consumo de energía, se indica que SOCAMM2 consume solo un 33% y ocupa un 33% del espacio.

Si bien la memoria RAM no consume ni ocupa mucho espacio, en centros de datos se usan cientos o miles de módulos se nota. Continuando con sus mejoras, en arquitecturas de memoria unificada, la nueva memoria SOCAMM2 de 256 GB promete reducir el tiempo hasta el primer token en hasta 2,3 veces para inferencia LLM con Large Context (500K) hasta la descarga de caché KV. En aplicaciones de CPU la LPDRAM logra más de 3 veces más rendimiento que la memoria convencional. Por último, tenemos su ventaja del diseño modular que permite ofrecer más flexibilidad y escalabilidad para los clientes.



Fuentes:
https://elchapuzasinformatico.com/2026/03/micron-socamm2-lpdram-256-gb/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.