Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Fin al monopolio de chips: OpenAI 'rompe' con Nvidia y acelera su IA con procesadores gigantes


OpenAI rompe su dependencia de Nvidia al lanzar su modelo de IA más rápido hasta la fecha con procesadores gigantes propios, impulsado por Sam Altman para evitar el monopolio de chips.



Sam Altman, creador de ChatGPT, ha decidido que ya no quiere esperar a Nvidia y ha lanzado su modelo más rápido hasta la fecha usando unos procesadores gigantes.

OpenAI no puede esperar más y ha decidido poner el turbo, aunque eso le cueste una relación que parecía irrompible y única. La compañía ha lanzado oficialmente el GPT-5.3-Codex-Spark, su primer modelo de producción que deja a un lado los chips de Nvidia para correr sobre el hardware de Cerebras.

El resultado no podría ser mejor para la empresa de Sam Altman. Este nuevo modelo es capaz de crear código a más de 1.000 tokens por segundo. Esto es unas 15 veces más rápido que su predecesor y deja tiritando a competidores como Claude Opus 4.6, que en su modo premium apenas llega a una fracción de esa velocidad.

Esto ha sido gracias a un cambio de estrategia. Hasta ahora, el avance estaba marcado por Nvidia y sus tarjetas gráficas. Sin ellas prácticamente no podías hacer nada. Hasta ahora. OpenAI se ha cansado de este monopolio y de esta espera.

Es la respuesta directa de Sam Altman tras un código rojo interno por la presión de Google y Anthropic, que le estaban empezando a ganar la carrera de la IA, sobre todo en el ámbito de la programación.

El tamaño sí importa para OpenAI, por eso estos procesadores son del tamaño de un plato

Lo que realmente está llamando la atención de todos no es solo el software, sino el hardware que hay debajo. El Codex-Spark corre sobre el Wafer Scale Engine 3 (WSE-3) de Cerebras, un chip que no se parece en nada a lo que tienes en tu PC. Tiene el tamaño de un plato, una oblea de silicio gigante que rompe con el diseño hasta ahora de chips pequeños interconectados.

Al ser una sola pieza, aunque sea enorme, los datos no tienen que viajar por cables o circuitos externos, lo que acaba por completo con el cuello de botella que no terminaba de encajar con OpenAI al usar los modelos de Nvidia.

Este ha sido uno de los grandes motivos de ruptura. A esto también se le suma la potencia y velocidad. Altman y su equipo empezaron a estar no muy conformes con la velocidad de los chips de Nvidia para las tareas de inferencia.

Por eso, OpenAI ha iniciado una estrategia de diversificación: firmaron con AMD en octubre de 2025, cerraron un acuerdo de 38.000 millones con Amazon en noviembre y ahora lanzan este órdago con Cerebras.

Como ves, desde hace ya unos meses, la idea es romper por completo con la dependencia de un solo proveedor. Mientras Nvidia sigue centrada en el entrenamiento de los modelos más grandes, Cerebras es experto en inmediatez.

Para un programador que pasa ocho horas al día esperando a que la IA le dé una línea de código, pasar de 100 a 1.000 tokens por segundo cambia todo.

El cuello de botella de la inferencia y 100.000 millones de dólares en el aire

Nvidia es la reina indiscutible para entrenar a la IA. Pero una vez que la IA ya sabe, lo que necesita es responder rápido al usuario, algo que técnicamente se llama inferencia. OpenAI se empezó a quejar de que los chips de Nvidia no eran lo suficientemente rápidos para las respuestas instantáneas que exige el nuevo GPT-5.3.

A esto se le suma una cuestión puramente estratégica y de supervivencia. Depender al 100% de un solo proveedor es un suicidio, sobre todo cuando Nvidia tiene a todo tipo de empresas, desde Microsoft hasta Google, esperando por los mismos chips.

OpenAI simplemente se ha cansado de esperar y de estar atada a los precios y plazos de entrega de Jensen Huang. Por eso, el plan original de invertir 100.000 millones de dólares en hardware de Nvidia se ha ido enfriando hasta casi desaparecer, sustituido por una estrategia donde OpenAI ahora también juega con AMD, Amazon y Cerebras.

La compañía de Altman ha demostrado que puede conseguir velocidades 15 veces superiores a las que conseguía con Nvidia. El problema, o quizá no, puede venir ahora. Nvidia quizá podría colocarles al final de la cola si quieren hacerse con lo mejor de lo mejor de esta compañía.



Fuentes:
https://computerhoy.20minutos.es/tecnologia/fin-monopolio-chips-openai-rompe-con-nvidia-acelera-su-ia-con-procesadores-gigantes_6933701_0.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.