Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon OpenAI y Amazon negocian un acuerdo por 10.000 millones para usar los chips aceleradores Trainium2


OpenAI y Amazon negocian un acuerdo por 10.000 millones de dólares para que OpenAI use los aceleradores Trainium2 de Amazon, lo que podría aumentar la presión sobre la burbuja de la IA. El acuerdo implica una inversión estratégica en infraestructura e intercambio de financiación.

Amazon y OpenAI negocian un acuerdo para usar aceleradores Trainium2 para entrenar a GPT


OpenAI y Amazon están negociando una inversión de unos 10.000 millones de dólares que no se limita a una ampliación de capital tradicional o a una compra de parte de la compañía. El acuerdo, todavía en fase de conversaciones, apunta a un intercambio estratégico claro entre financiación e infraestructura, con un elemento central que lo condiciona todo: el uso de aceleradores Trainium2 de Amazon para entrenar modelos de Inteligencia Artificial a gran escala de OpenAI como GPT. Esto, que es beneficioso para ambas partes, está siendo ya considerado como otro balón de oxígeno para la famosa burbuja de la IA.

Este movimiento se produce en un momento en el que OpenAI busca ampliar su margen de maniobra, puesto que está siendo acorralada por Google y Anthropic. El coste del entrenamiento de los llamados “modelos de frontera” no deja de crecer y la dependencia de un único proveedor de infraestructura (NVIDIA) se ha convertido en un riesgo operativo y estratégico.

OpenAI y Amazon están a punto de concretar su acuerdo por 10.000 millones y el objetivo es claro: entrenar a las futuras versiones de GPT con Trainium2, ¿por qué no usar el recién presentado Graviton5?


La entrada de Amazon no solo aporta capital a OpenAI, sino que también ofrece una vía alternativa de cómputo muy potente en un mercado cada vez más tensionado por la escasez de aceleradores y el dominio de unos pocos actores, que, por otra parte, están colapsados en pedidos.

El eje técnico del acuerdo sería Trainium2, el acelerador de IA diseñado por Amazon Web Services. Conviene diferenciar bien los roles, ya que algunos apuntaban a otro chip de la compañía que vimos la semana pasada y que, en principio, daba la impresión de que por lo cercano de las noticias sería usado, pero no.

Hablamos de Graviton5, una CPU ARM generalista, muy eficiente para cargas cloud tradicionales, pero no está pensada para asumir el peso del entrenamiento de grandes modelos. Por ello, Trainium2, en cambio, es silicio especializado para cálculo matricial, entrenamiento distribuido y formatos de precisión reducida, que es exactamente donde se concentran las necesidades actuales de la IA generativa en los centros de datos de OpenAI.

El sector del hardware está colapsado de pedidos, la producción sigue siendo inferior a la demanda, las soluciones pasan por este tipo de acuerdos

Amazon y OpenAI acuerdo por Trainium2

A nivel técnico, Trainium2 supone un salto relevante respecto a la primera generación. Amazon ha confirmado mejoras de hasta 4 veces en rendimiento, soporte nativo para formatos como FP8 y BF16 y una interconexión de alta velocidad diseñada para escalar clústeres de gran tamaño sin penalizaciones severas de latencia.

Las instancias basadas en este chip permiten desplegar configuraciones con decenas de aceleradores trabajando de forma coordinada, un requisito imprescindible cuando se entrenan modelos con cientos de miles de millones de parámetros. Este enfoque es el que, ante el colapso de pedidos en NVIDIA y AMD, los problemas de fabricación y producción de TSMC, así como el nulo stock de CoWoS, ha llevado a los de Sam Altman a contactar con Amazon para usar Trainium2 en vez de cualquier GPU Blackwell, y de paso, manda un aviso a Huang.

Desde el punto de vista de Amazon, el acuerdo encaja con su estrategia a largo plazo. Colocar Trainium2 como alternativa real a los aceleradores dominantes refuerza el valor de AWS, reduce la dependencia de proveedores externos y justifica la inversión sostenida en diseño de silicio propio. Para OpenAI, supone diversificar infraestructura, ganar capacidad de negociación y asegurar acceso a cómputo en un contexto donde la demanda supera con frecuencia a la oferta. Es otro de esos Win-Win donde la rueda sigue girando, el dinero fluye y va de empresa tecnológica a empresa tecnológica.

La burbuja vuelve a inflarse, el dinero fluye de Big Tech en Big Tech y no sale de EE.UU. salvo por la fabricación, de momento...

Sam-Altman-CEO-OpenAI-avisa-sobre-la-explosión-de-la-burbuja-de-la-IA

Todo esto se enmarca en un debate cada vez más presente en el sector. Inversiones de esta magnitud, centradas en infraestructura y hardware, alimentan la percepción de que la industria está añadiendo más oxígeno a una burbuja que sigue creciendo. Los costes se disparan, los retornos aún son desiguales y la presión por justificar estas inversiones será cada vez mayor.

La posible alianza entre OpenAI y Amazon no resuelve ese debate, el uso de Trainium2 no resuelve las dudas a este respecto, pero sí deja una idea clara. La siguiente fase de la Inteligencia Artificial en cuanto al hardware no se decidirá solo en los modelos, sino en quién puede sostener el coste de entrenarlos. Y ahí, el control del silicio y del capital empieza a ser tan importante como el talento o los algoritmos, es obvio.

Parece que a nadie le conviene que la burbuja explote, parece que no importa dicho coste, solo el llegar primero, mejor y de forma más eficiente. Los ingresos generados por todo ello parecen irse cada vez más lejos en el tiempo. ¿Se equivocan los que hablan de burbuja o aciertan las Big Tech?



Fuentes:
https://elchapuzasinformatico.com/2025/12/openai-amazon-acuerdo-10000-millones-usar-aceleradores-trainium2-ia/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.