Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1706
)
-
▼
noviembre
(Total:
142
)
-
Desmantelada en Barcelona una red de estafadores q...
-
ChatGPT copia a Google y restringe uso límite diar...
-
En 2019 un hombre estafó 122 millones de dólares a...
-
AV Linux 25 llega con base MX Linux 25 y Debian 13...
-
Guía de Pruebas de IA de OWASP v1
-
Harvard sufre filtración de datos tras ataque por ...
-
Filtración de datos de Integra Energía expone los ...
-
RelayNFC: nuevo malware de retransmisión NFC
-
Steam y Riot Games reciben ataques DDoS masivos de...
-
Cómo usar ChatGPT (u otros LLM) con una API y paga...
-
OpenAI, creadora de ChatGPT, informa de una brecha...
-
Tutorial FFMpeg: ejemplos comandos para convertir ...
-
Una IA ya programa mejor que los ingenieros humano...
-
Una contraseña de la DGT ha sido expuesta en Infor...
-
HP despedirá a hasta 6.000 trabajadores por el imp...
-
ChatGPT vs Gemini vs Copilot: comparativa de las m...
-
Red Hat Enterprise Linux 10.1 refuerza su apuesta ...
-
Casco de moto con realidad aumentada
-
Meta expulsa a ChatGPT y Copilot en WhatsApp
-
Xiaomi Poco F8 Pro y F8 Ultra, que refuerzan la ga...
-
Ya disponible Memtest86+ 8.0, ideal para probar me...
-
La IA revienta el mercado de las memorias: todo su...
-
Perplexity presenta compras con IA y pagos por PayPal
-
El peligro de los ataques ClickFix
-
Aluminum OS: el Sistema Operativo de Google basado...
-
Vert es un convertidor ficheros texto, audio y víd...
-
Zorin OS 18 alcanza un millón de descargas
-
Exploit PoC para una vulnerabilidad en 7-Zip (CVE-...
-
El Ministerio y la Guardia Civil investigan el cib...
-
Whisperleak: nuevo ataque de canal lateral que rob...
-
Fortinet lanza un parche urgente que corrige un fa...
-
EchoGram: Nueva técnica burla las defensas de LLMs...
-
El primer procesador no fue el Intel 4004: el MP94...
-
Google Nano Banana Pro: la IA para generar imágene...
-
Windows 1 cumple 40 años
-
Gemini 3 vs ChatGPT 5.1 vs Claude 4.5: cuál es la ...
-
Meta supera el juicio antimonopolio y no tendrá qu...
-
Vulnerabilidad en WhatsApp expone 3,500 millones d...
-
Zero-Day explotado activamente en Google Chrome V8
-
Apple: «Las vibraciones de motocicleta pueden daña...
-
Filtradas las gafas inteligentes de Samsung con An...
-
Meta presenta una IA que convierte cualquier perso...
-
OpenAI presenta GPT-5.1-Codex-Max, la IA que progr...
-
Telefónica es excluida de un concurso público por ...
-
Un juzgado condena a Meta a indemnizar con 479M a ...
-
Ejemplos y funcionamiento avanzado de la API de Ol...
-
Instalar y configurar Ollama (servidor Local para ...
-
Xania Monet; una IA firma un contrato discográfico...
-
Aquellos maravillosos relojes digitales Casio de p...
-
Microsoft anuncia nuevas herramientas para recuper...
-
La app preinstalada AppCloud en móviles Samsung Ga...
-
Taiwán alerta sobre riesgos de las aplicaciones ch...
-
Google presenta Gemini 3, su modelo de IA más inte...
-
Anthropic firma un acuerdo con Microsoft y Nvidia:...
-
China muestra el ejército de robots humanoides
-
Microsoft se carga el sistema de activación KMS38 ...
-
Canonical extiende el soporte de Ubuntu LTS hasta ...
-
"Cobrábamos 100$ al mes por una IA que en realidad...
-
Amazon Leo: el rival de Starlink ofrecerá una cone...
-
Un problema en CloudFlare deja sin funcionar a med...
-
Cómo integar la API de Ollama con Moodle para usar...
-
Anything LLM: Una herramienta todo en uno para IA
-
HydraPWK: distribución Linux para pruebas de pente...
-
Google alerta del uso masivo de la IA con fines ma...
-
NVMe Destroyinator: una máquina para eliminar dato...
-
Clonan voces de empleados para hackear empresas
-
No, las computadoras cuánticas no robarán tus bitc...
-
Logitech confirma el robo de datos tras un ataque ...
-
Alternativas a ChatGPT y Gemini sin límites: las m...
-
Alemania presenta la supercomputadora Otus: más de...
-
Un grupo chino protagoniza el primer ciberataque c...
-
China acusa a EE. UU. por hackeo millonario de Bit...
-
Operación Endgame S03: desmantela Rhadamanthys, Ve...
-
Windows 11 integra soporte nativo para 1Password y...
-
Amazon elimina las aplicaciones pirata de sus Fire...
-
Google NotebookLM añade un «modo investigador»
-
Xiaomi, la marca de móviles, ya vende más coches q...
-
Audio Overviews en Google Drive convierte PDF en a...
-
OpenAI pesenta GPT-5.1: un asistente "más cálido y...
-
LibreOffice arremete contra Microsoft Office y su ...
-
Hackean la compañía aérea Iberia y venden 77GB dat...
-
El autor de 'Juego de Tronos' pidió a ChatGPT que ...
-
La Unión Europea acuerda poner una tasa aduanera a...
-
¿Por qué los disquetes solían tener exactamente 1,...
-
Google Maps estrena guiado de carril con realidad ...
-
Google te avisará de las aplicaciones que consumen...
-
Valve presenta Steam Machine, un PC de tamaño comp...
-
Firefox mejora tu privacidad: bloquea el fingerpri...
-
Nvidia niega inversión financiera en Nuevo León tr...
-
Kaspersky para Linux: el veterano antivirus llega ...
-
Anthropic, el rival de OpenAI, invertirá 50.000 mi...
-
Cybersecurity AI (CAI): framework para automatizar...
-
Google presenta su propia tecnología de computació...
-
Red Hat anuncia un programa de soporte exclusivo p...
-
BTF3: un solo conector para todo: así funciona el ...
-
Anthropic es la la más rentable, a diferencia de O...
-
La unidad flash USB-C de 1 TB más pequeña del mundo
-
Ookla Speedtest Pulse: ahora puedes medir tu veloc...
-
BreachParty hackea a ING y Santander, filtrando da...
-
Tarjeta gráfica Asus ROG Astral con refrigeración ...
-
- ► septiembre (Total: 148 )
-
▼
noviembre
(Total:
142
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
-
Además de las temidas cookies y de que la dirección IP figura en las peticiones que se hacen de páginas web, el navegador revela sin que l...
-
A partir de 2026, la validez de los certificados digitales disminuirá gradualmente, pasando de 398 días a 47 días para 2029 . Let's Encr...
Google presenta Ironwood, el chip de IA más potente para competir con Nvidia
Durante los últimos años lo verdaderamente relevante era entrenar modelos de IA para hacerlos mejores. Ahora que han madurado y el entrenamiento ya no escala de forma tan notable, lo que más importa es la inferencia: que cuando usemos chatbots de IA estos funcionen rápida y eficientemente. Google se dio cuenta de ese cambio de foco, y tiene chips precisamente preparados para ello.
La industria se obsesionó con entrenar modelos de IA, mientras Google preparaba su jugada maestra: chips para inferencia
- Los nuevos chips Ironwood son la nueva vuelta de tuerca de las TPUs de Google
- Según la empresa, multiplican por cuatro la eficiencia y la potencia
- Y se centran en inferencia, donde el poder de CUDA y NVIDIA ya no es tan relevante
Google Cloud anunció oficialmente sus nuevos procesadores Axion y las unidades de procesamiento tensorial Ironwood de séptima generación, una combinación que impulsa su arquitectura AI Hypercomputer, el sistema más avanzado de la compañía para entrenamiento e inferencia de modelos de inteligencia artificial a gran escala.
Estas unidades pueden combinarse en clústeres de cientos de miles de TPUs dentro del AI Hypercomputer, una plataforma que une cómputo, almacenamiento y red bajo una sola capa de gestión. Su sistema de Optical Circuit Switching permite reconfigurar el flujo de datos automáticamente ante cualquier fallo, manteniendo la operación continua. Según IDC, este modelo de supercómputo entrega un 353% de ROI en tres años y 55% más eficiencia operativa.
Empresas como Anthropic y Lightricks ya adoptaron esta infraestructura: la primera planea usar hasta un millón de TPUs Ironwood para la familia de modelos Claude, mientras que la segunda entrena su sistema multimodal LTX-2 con esta nueva tecnología.
Junto a las TPU, Google presentó su primer procesador de servidor propio: los Axion CPUs, basados en la arquitectura Armv9 Neoverse V2. Estos chips ofrecen hasta 50% más rendimiento y 60% mayor eficiencia energética frente a procesadores x86 actuales, con soporte de DDR5-5600 MT/s, 80 MB de caché L3 y configuraciones de hasta 96 vCPUs.
Los Axion estarán disponibles en tres configuraciones principales:
-
C4A: 72 vCPUs, 576 GB de RAM y red de 100 Gbps.
-
N4A: 64 vCPUs, 512 GB de RAM y red de 50 Gbps.
C4A Metal: versión bare-metal con 96 vCPUs y 768 GB de RAM.
TPU Ironwood
Las TPU Ironwood ofrecen 4.614 TFLOPS FP8 con 192 GB de memoria HBM3E y ancho de banda de hasta 7,37 TB/s. Los pods escalan hasta 9.216 aceleradores, alcanzando un total de 42,5 exaFLOPS FP8, superando ampliamente el rendimiento de las NVIDIA GB300 NVL72, que registran apenas 0,36 exaFLOPS. Cada pod integra 1,77 PB de memoria HBM3E, interconectado mediante una red de 9,6 Tb/s, garantizando baja latencia y máxima eficiencia.
Ironwood. Así se llaman los nuevos chips de la célebre familia de Tensor Processing Units (TPUs) de Google. La empresa, que comenzó a desarrollarlos en 2015 y lanzó los primeros en 2018, obtiene ahora frutos especialmente interesantes de todo ese esfuerzo: unos chips realmente prometedores no para entrenar modelos de IA, sino para que los usemos más rápido y eficientemente que nunca.
Inferencia, inferencia, inferencia. Estas "TPUv7" estarán disponibles en las próximas semanas y se podrán usar para entrenamiento de modelos de IA, pero están especialmente orientadas a "servir" esos modelos a los usuarios para que puedan usarlos. Es la otra gran pata de los chips de IA, la realmente visible: una cosa es entrenar los modelos y otra muy distinta la de "ejecutarlos" para que respondan a las peticiones de los usuarios.
Eficiencia y potencia por bandera. El avance en las prestaciones de estos chips de IA es enorme, al menos según Google. La empresa afirma que Ironwood ofrece cuatro veces más rendimiento que la generación anterior tanto en entrenamiento como en inferencia, además de que estamos ante "el silicio personalizado más potente y eficiente en energía hasta la fecha". Google ya ha llegado a un acuerdo con Anthropic para que esta última tenga acceso hasta a un millón de TPUs para ejecutar Claude y servirlo a sus usuarios.
La supercomputadoras de IA de Google. Estos chips son los componentes clave del llamado AI Hypercomputer, un sistema de supercomputación integrado que según Google permite reducir en un 28% los costes de IT y un ROI del 353% a los clientes en tres años. O lo que es lo mismo: prometen que si usas estos chips, el retorno de la inversión se multiplicará por más de cuatro en ese plazo.
Casi 10.000 chips interconectados. Los nuevos Ironwood están dotados además de la capacidad de formar parte de unir fuerzas a lo grande. Es posible combinar hasta 9.216 de ellos en un único nodo o pod, lo que teóricamente hace que desaparezcan los cuellos de botella de los modelos más exigentes. La dimensión de este tipo de cluster es enorme, y permite disponer de hasta 1,77 Petabytes de memoria HBM compartida mientras que esos chips se comunican con un ancho de banda de 9,6 Tbps gracias al llmado Inter-Chip Interconnect (ICI).
Más FLOPS que nadie. La empresa también asegura que un "pod Ironwood" (un cluster con esas 9.216 TPUs Ironwood) ofrece 118x más ExaFLOPS FP8 que su mejor competidor. Los FLOPS miden cuántas operaciones matemáticas en coma flotante pueden resolver estos chips por segundo, lo que garantiza que básicamente cualquier carga de trabajo de IA va a ejecutarse en tiempos récord.
NVIDIA cada vez tiene más competencia (y eso es bueno). Los chips de Google son la demostración de esa clara vocación de las empresas de evitar demasiadas dependencias de terceros. Google tiene todos los ingredientes para hacerlo, y sus TPUv7 son la demostración de ello. No es la única, y desde hace tiempo muchas otras empresas de IA buscan crear sus propios chips. El dominio de NVIDIA sigue siendo claro, pero la empresa tiene un pequeño problema.
En inferencia CUDA ya no es tan vital. Una vez que el modelo de IA ya ha sido entrenado, la inferencia opera bajo reglas de juego diferentes a las del entrenamiento. El soporte CUDA sigue siendo un factor relevante, pero su importancia en la inferencia es mucho menor. La inferencia se centra en obtener la respuesta más rápida posible. Aquí los modelos "se compilan" y pueden funcionar de forma óptima en el hardware de destino. Puede que eso haga que esa relevancia de NVIDIA pierda enteros ante alternativas como la de Google.
Fuentes:










Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.