Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Micron, Samsung y SK Hynix se tambalean: Google encuentra una forma de reducir el uso de memoria para IA


Google ha desarrollado TurboQuant, una tecnología que reduce el uso de memoria en IA, provocando la caída de acciones de los principales fabricantes como Micron, Samsung y SK Hynix.




Por fin la IA nos da alegrías, tras el cierre del generador de vídeo por IA Sora, ahora se le suma que las acciones de Micron, Samsung y SK Hynix, los principales fabricantes de memoria, han caído de valor, y el principal motivo de ello tiene nombre propio, TurboQuant. Este es el nombre que recibe un nuevo sistema de compresión presentado por Google Research, el cual permitirá reducir de forma importante la necesidad de memoria DRAM en cargas de IA. Fue anunciarlo, y al día siguiente ver cómo las acciones de Micron cayeron, acumulando ya casi un 10% menos de valor en la última semana. Samsung ha caído un 5% mientras que SK Hynix ha caído un 9%.



El el caso de Micron, se le suma un segundo motivo, que es haber lanzado una oferta de recompra de hasta 5.400 millones de dólares en bonos senior con vencimiento entre 2031 y 2035. Este movimiento se ha interpretado como una posible señal de prudencia financiera en plena fase de fuerte inversión.

Si esta tecnología permite a la IA funcionar con menos memoria... ¿Hace falta entonces seguir comprando tanta memoria HBM y DDR5?

TurboQuant - Google Research compresion de memoria modelos IA

Así es, si con TurboQuant los modelos de IA pueden hacer más con menos memoria, el mercado podría empezar a cuestionarse el superciclo de demanda que ha beneficiado a fabricantes como Micron, especialmente con la memoria HBM y DDR5. En paralelo, dedicar miles de millones a recomprar deuda puede leerse como una señal menos agresiva de lo esperado en un momento en el que la industria sigue ampliando la capacidad. Desde esa perspectiva, la bajada bursátil es una reacción preventiva del mercado ante la posibilidad de que el pico de euforia en infraestructura de IA se modere antes de lo previsto.

Google describe a TurboQuant como un método de compresión para KV caché y vector search que logra “sin pérdida de precisión” en sus pruebas, con una reducción de memoria de al menos 6 veces en determinados benchmarks, y hasta 8 veces de mejora de rendimiento frente a claves no cuantizadas de 32 bits en una GPU NVIDIA H100. Eso confirma que el avance es real y técnicamente relevante. Pero también deja claro que hablamos de una técnica aplicada a casos concretos de compresión y búsqueda vectorial; . Por lo que quizás es muy pronto para hablar que la demanda de memoria DRAM o HBM se desplome de inmediato.



Micron llega a este nuevo episodio de la historia de la IA y escasez de memoria en posición operativa muy fuerte. En sus resultados del segundo trimestre fiscal de 2026, la compañía reportó 23.860 millones de dólares de ingresos, 12,20 dólares de BPA ajustado, 6.900 millones de flujo de caja libre ajustado y 16.700 millones en caja, inversiones y efectivo restringido. Además, predijo para el tercer trimestre unos ingresos de 33.500 millones de dólares con un margen bruto aproximado del 81%.

El TurboQuant es un algoritmo de cuantización vectorial de Google Research

Los precios subirán más en el Q1 de 2026 para la memoria DRAM y NAND Flash donde SK Hynix Samsung y Micron no pueden hacer nada de momento

Este algoritmo se utiliza para comprimir vectores de alta dimensión, con dos usos destacados en el anuncio. El KV caché de los LLM, y los sistemas de vector search. El cuello de botella que intenta resolver es muy concreto, y es que, cuando aumenta la longitud de contexto, el KV caché crece con el tamaño del modelo y del contexto, y eso dispara el uso de memoria y la latencia.

En castellano. El TurboQuant intenta guardar una versión mucho más compacta de las claves y valores que el modelo usa, pero sin romper las relaciones matemáticas importantes entre esos vectores. Eso importa porque la atención del transformer y la búsqueda vectorial dependen precisamente de esas operaciones.

TurboQuant no reemplaza a la memoria ni convierte por arte de magia a un modelo gigante en uno pequeño. Lo que hace es usar mejor la memoria disponible en ciertas partes del pipeline, sobre todo en inferencia de largo contexto y en búsqueda vectorial. Ahora está por ver si una tecnología de este tipo cambiará las cosas, o todo se mantendrá como hasta ahora.


Fuentes:
https://elchapuzasinformatico.com/2026/03/acciones-de-micron-google-turboquant-comprimir-memoria-ia/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.