-
▼
2025
(Total:
528
)
-
▼
abril
(Total:
94
)
-
FACUA pide a la AEPD que investigue a Cecotec por ...
-
Le han enseñado todos los capítulos de ‘Tom y Jerr...
-
¿Qué son los «embeddings» en un LLM?
-
¿Qué es una ventana de contexto en un LLM?
-
Diferencias entre los procesadores Ryzen, Threadri...
-
Los videojuegos ya generan más dinero con micropag...
-
La historia de la Inteligencia Artificial (IA)
-
Duelo de titanes: procesadores Intel Xeon y AMD EPYC
-
Firebase Studio de Google te permite programar gra...
-
Jeff Bezos funda una compañía de coches eléctricos...
-
Linus Torvalds se rinde ante Git: "Es más popular ...
-
La promesa de AMD Strix Halo de jugar con un PC Ga...
-
Google convierte cualquier documento en un pódcast...
-
OpenSSH 10 se despide de DSA y da la bienvenida al...
-
Vulnerabilidad de Windows aprovechada para instala...
-
Los procesadores fotónicos, infinitamente más rápi...
-
Millones de ordenadores sumergidos en fluidos para...
-
Hackean el sitio de filtraciones del grupo de rans...
-
AMD anuncia los procesadores Ryzen 8000HX para por...
-
Disponible Commandos: Origins, una precuela que re...
-
Samsung Ballie, un robot de uso doméstico utiliza ...
-
Google lanza un protocolo abierto para que los age...
-
Anbernic RG 557, una consola portátil con Android ...
-
Archivo JPEG en WhatsApp para Windows podría ser u...
-
Tranquilo y arrepentido, así se ha mostrado el Alc...
-
Cecotec fue hackeada en 2023 y lo dice ahora: roba...
-
El uso de IA generativa hace más "tontas" a las pe...
-
Microsoft despide a una ingeniera marroquí por neg...
-
Google anuncia Sec-Gemini, un modelo de IA para re...
-
Asus, Dell, HP, Lenovo y Razer detienen sus envíos...
-
Qué es el Model Context Protocol (MCP) y cuál es s...
-
Android 16 llega hoy a los móviles Xiaomi
-
Donald Trump cree que Estados Unidos puede fabrica...
-
¿Cuánto dinero ha perdido Apple por los aranceles ...
-
Aseguran haber robado los datos de la Lista Robins...
-
La empresa matriz de Kellogg's, víctima de un cibe...
-
FreeDOS 1.4, el DOS de código abierto
-
Shotcut 25.03 ya está disponible
-
Apple ha hecho algo para mitigar los aranceles: fl...
-
Deepseek-R1: El Modelo Revolucionario que Eleva lo...
-
El bufete de abogados de Javier Tebas también usa ...
-
El CEO de Google advierte: su inteligencia artific...
-
Desarticulada una organización que creaba vídeos d...
-
La ONU alerta: la IA podría destruir más de 8 mill...
-
China anuncia un cable que transmite video 8K y al...
-
OpenAI podría añadir marcas de agua visibles a las...
-
Círculo azul de Instagram con Meta AI: qué es y có...
-
Las tecnológicas chinas apuestan por la IA con mod...
-
Gestor de paquetes Debian APT 3.0 con una interfaz...
-
Restaurar un SSD con el método del ciclo de energía
-
El invierno de la IA: así fue el período en el que...
-
Comprar un PC con ARM en 2025
-
NVIDIA publica todas sus tecnologías PhysX y Flow ...
-
Desarrollar software en 2027 será como dirigir una...
-
Así está cambiando la IA la forma en que el mundo ...
-
Crea un pasaporte falso en cinco minutos con ChatG...
-
China ha comenzado la producción masiva de batería...
-
Meta presenta Llama 4, su nuevo modelo LLM de inte...
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
Con 21 años creó una IA que engaña en entrevistas ...
-
Anthropic presenta Claude para la Educación, una I...
-
Microsoft presenta la máquina de recuperación rápi...
-
No hace falta pagar para tener un escritorio remot...
-
La Policía Nacional detiene en España a 16 persona...
-
Microsoft filtró una clave de activación un mes an...
-
Los internautas españoles claman contra la Justici...
-
Movistar no levanta el bloqueo de las IP de Cloudf...
-
Sanción a Apple de 150M€ por abuso de posición dom...
-
Archivos de FGR, SAT y más de 1,500 sitios mexican...
-
Gen-4, la IA que genera videos más realistas que Sora
-
Microsoft Word permite resumir documentos de cient...
-
Vulnerabilidades críticas en PHP y Apache Tomcat
-
Microsoft quiere cambiar el pantallazo azul de la ...
-
El Gobierno de España aprueba el DNI digital, que ...
-
Elon Musk afirma que le ha dado a la madre de su ú...
-
Un juzgado admite la demanda millonaria de la OCU ...
-
Google admite no saber por qué su IA aprende cosas...
-
Filtrados 2.800 millones de usuarios de Twitter/X,...
-
Una mujer recupera el habla 18 años después de un ...
-
Amazon Nova Act es la nueva IA que puede navegar l...
-
Un usuario se compró un lavavajillas conectado de ...
-
Hackean la megafonía de El Corte Inglés e incitan ...
-
Temperatura GPU (Tarjeta Gráfica)
-
Cifrado extremo a extremo ¿qué es?
-
Bjarne Stroustrup, creador de C++, aconseja a los ...
-
OpenAI aumenta las recompensas de su programa de v...
-
Sistema de archivos ReFS vs NTFS en Windows 11
-
Instalar LM Studio (IA LLM en local)
-
La banda del Niño Skin consiguió 'empurar' al guar...
-
-
▼
abril
(Total:
94
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- El robo del siglo: así perpetró Corea del Norte el mayor hurto de activos digitales de la historia para financiar su pro
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
- Elon Musk cobra la API de Twitter (X) a precio de oro: esta app te permite usarla gratis
Entradas populares
-
Aunque emiten radiación internamente, están diseñadas con materiales de protección que evitan emisiones externas, haciendo que sean seguras...
-
Las capacidades de la Inteligencia Artificial son tan asombrosas como escalofriantes, y es que es sorprendente cómo una máquina puede repl...
-
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificia...
Así está cambiando la IA la forma en que el mundo construye computadoras
La carrera por crear inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los videojuegos.
Las empresas tecnológicas ahora construyen computadoras especializadas que retacan con la mayor cantidad posible de GPU (ideales para ejecutar los cálculos que impulsan la IA).
El resultado es un nuevo tipo de supercomputadora: un conjunto de hasta 100.000 chips conectados entre sí en edificios conocidos como centros de datos cuya tarea es crear potentes sistemas de IA.
Esta potencia de cálculo tiene un costo. OpenAI, fabricante de ChatGPT, espera construir unas cinco instalaciones que juntas consumirán más electricidad que todos los hogares (aproximadamente 3 millones) de Massachusetts.
En su empeño por perseguir el sueño de la IA, las gigantes tecnológicas están instalando centros de datos por todo el país y por todo el mundo. Para hacerlos funcionar, deben conseguir suficiente electricidad, además del agua necesaria para los sistemas de refrigeración que impiden que los chips se frían en su propio calor.
Se trata del cambio más fundamental en la informática desde los primeros días de la World Wide Web. Del mismo modo que reconstruyeron por completo sus sistemas informáticos a fin de tener capacidad para operar la nueva Internet comercial en la década de 1990, ahora las empresas los están reconstruyendo de cabo a cabo (desde los componentes más diminutos hasta la forma en que se alojan y alimentan las computadoras) de manera que sean aptos para operar la IA.
Las grandes empresas tecnológicas se han dedicado desde hace dos décadas a construir centros de datos informáticos por todo el mundo. Esos centros están llenos de computadoras que se ocupan de gestionar el tráfico en línea que alimenta los servicios de Internet de las empresas, como los motores de búsqueda, las aplicaciones de correo electrónico y los sitios de comercio electrónico.
Pero la potencia de esas instalaciones no es nada en comparación con lo que se avecina. En 2006, Google inauguró su primer centro de datos en The Dalles (Oregón), cuya construcción requirió una inversión estimada de 600 millones de dólares. En enero, OpenAI y varias empresas aliadas anunciaron que planean gastar unos 100.000 millones de dólares en nuevos centros de datos, empezando por uno en Texas. Con el tiempo, tienen previsto invertir otros 400.000 millones de dólares en este y otros centros de Estados Unidos.
El cambio en la informática no se reduce a una remodelación de la tecnología, sino que también está transformando las finanzas, la energía y las comunidades. Las empresas de inversión en fases consolidadas están invirtiendo en empresas de centros de datos. Se observa una movilización masiva de electricistas a las zonas donde se erigen las instalaciones. En algunos lugares, la población local ha expresado oposición a los proyectos, preocupada por que sean más perjudiciales que beneficiosos.
Por ahora, las empresas tecnológicas quieren más potencia de cálculo y más electricidad de la que el mundo puede proporcionar. OpenAI espera recaudar cientos de miles de millones de dólares para construir fábricas de chips informáticos en Medio Oriente. Google y Amazon hace poco concretaron acuerdos para construir y desplegar una nueva generación de reactores nucleares… y quieren hacerlo rápido.
El mantra "mientras más grande, mejor" se puso en tela de juicio en diciembre, cuando una pequeña empresa china, DeepSeek, informó que había construido uno de los sistemas de IA más potentes del mundo utilizando muchos menos chips informáticos de lo que muchos expertos creían posible. Esta noticia suscitó dudas sobre el gasto frenético de Silicon Valley.
Las gigantes tecnológicas estadounidenses ni se inmutaron. El objetivo (de lo más ambicioso) de muchas de estas empresas es crear inteligencia artificial general (AGI, por su sigla en inglés), una máquina capaz de hacer todo lo que hace el cerebro humano, y siguen convencidas de que, para conseguirlo, es esencial contar con más potencia de cálculo.
Amazon, Meta, Microsoft y la empresa matriz de Google, Alphabet, indicaron hace poco que su gasto de capital (que se utiliza principalmente para construir centros de datos) podría superar una cantidad combinada de 320.000 millones de dólares este año. Esa cifra es más del doble de lo que gastaron hace dos años.
The New York Times visitó cinco centros de datos nuevos en California, Utah, Texas y Oklahoma y dialogó con más de 50 ejecutivos, ingenieros, empresarios y electricistas para contar la historia del hambre insaciable de la industria tecnológica por este nuevo tipo de informática.
"Los avances previstos para la próxima década se han comprimido en un periodo de apenas dos años", señaló Sundar Pichai, director ejecutivo de Google, en una entrevista con el Times. "La IA es el acelerador".
Nuevos chips informáticos para una nueva IA
El gigantesco avance de la informática para la IA fue impulsado por un pequeño ingrediente: los chips informáticos especializados llamados unidades de procesamiento gráfico, o GPU.
Empresas como Nvidia, la fabricante de chips de Silicon Valley, diseñaron originalmente estos chips para generar gráficos empleados en los videojuegos. Pero las GPU resultaron excelentes para ejecutar las matemáticas que hacen funcionar las llamadas redes neuronales, que pueden aprender habilidades a partir del análisis de grandes cantidades de datos.
Las redes neuronales son la base de los chatbots y otras tecnologías punteras de IA.
En el pasado, la informática dependía en gran medida de chips denominados unidades centrales de procesamiento, o CPU, que podían hacer muchas cosas, incluidas las sencillas operaciones matemáticas que hacen funcionar las redes neuronales.
Pero las GPU hacen estos cálculos más rápido… mucho más rápido. En un momento dado, un chip tradicional puede hacer un solo cálculo. En ese mismo momento, una GPU puede hacer miles. Los informáticos utilizan el término procesamiento paralelo para designar esta característica, que significa que las redes neuronales pueden analizar más datos.
Cuanto más cerca estén los chips, mejor
No solo los chips son diferentes. Para sacar el máximo partido de las GPU, las empresas tecnológicas deben acelerar el flujo de datos digitales entre los chips.
"Cada GPU tiene que hablar con las demás lo más rápido posible", explicó Dave Driggers, director de tecnología de Cirrascale Cloud Services, que gestiona un centro de datos en Austin (Texas) para el Instituto Allen de Inteligencia Artificial, un destacado laboratorio de investigación en IA.
Cuanto más cerca están los chips entre sí, funcionan más rápido. Así que las empresas decidieron retacar la mayor cantidad posible de chips en cada centro de datos. También desarrollaron nuevo hardware y cableado que permiten transmitir datos rápidamente entre los chips.
Eso está cambiando la manera en que operan los centros de datos, que básicamente son grandes edificios llenos de bastidores con computadoras apiladas una encima de otra.
En 2021, antes del auge de la IA, Meta abrió dos centros de datos a una hora al sur de Salt Lake City y estaba construyendo tres más en ese lugar. El plan era que esas instalaciones (cada una del tamaño del Empire State Building puesto de costado sobre el desierto) ayudaran a alimentar las aplicaciones de redes sociales de la empresa, como Facebook e Instagram.
Pero después de que OpenAI dio a conocer ChatGPT en 2022, Meta reevaluó sus planes con respecto a la IA. Tuvo que amontonar en un nuevo centro de datos miles de GPU y ponerlas a trabajar en cálculos que habrían tardado semanas e incluso meses para construir una red neuronal única y hacer avanzar la IA de la empresa.
"Todo debe funcionar como una supercomputadora gigante, del tamaño de un centro de datos", comentó Rachel Peterson, vicepresidenta de centros de datos de Meta. "Esa es una situación totalmente distinta".
Las máquinas de IA necesitan más electricidad… mucha más
Los nuevos centros de datos repletos de GPU implicaban nuevas exigencias de electricidad… tanta, que la cantidad de energía necesaria se dispararía.
En diciembre de 2023, Cirrascale alquiló un centro de datos tradicional de 13.000 metros cuadrados en Austin que consumía 5 megavatios de electricidad, suficiente para abastecer en promedio a unos 3600 hogares estadounidenses. En su interior, había unas 80 filas de computadoras. La empresa desmontó las computadoras viejas a fin de convertir las instalaciones en un centro de IA.
Los 5 megavatios que solían alimentar un edificio lleno de CPU ahora bastan para hacer funcionar solo ocho o diez filas de computadoras repletas de GPU. Cirrascale puede ampliar su consumo a unos 50 megavatios de electricidad de la red, pero ni siquiera así llenaría el centro de datos de GPU.
Y eso todavía es poco. OpenAI pretende construir unos cinco centros de datos que superen el consumo eléctrico de unos 3 millones de hogares.
Encima, que estos centros de datos tengan más equipo en un espacio más reducido no es el único factor.
Los chips informáticos que emplea la IA necesitan mucha más electricidad que los chips tradicionales. Una CPU típica necesita entre 250 y 500 vatios para funcionar, mientras que las GPU utilizan hasta 1000 vatios.
Construir un centro de datos es, en última instancia, una negociación con la compañía de luz local. ¿Cuánta energía puede suministrar? ¿A qué costo? Si requiere millones de dólares en equipo nuevo para ampliar la red eléctrica, ¿quién paga las actualizaciones?
Los centros de datos consumieron alrededor del 4,4 por ciento de la electricidad total de Estados Unidos en 2023, es decir, más del doble de energía que las instalaciones utilizadas para minar criptomonedas. Esta cifra podría triplicarse para 2028, según un informe publicado por el Departamento de Energía en diciembre.
"El tiempo es la moneda del sector en estos momentos", afirmó Arman Shehabi, investigador del Laboratorio Nacional Lawrence Berkeley que dirigió el informe. Comentó que hay prisa por seguir construyendo y "no creo que el ritmo se ralentice en los próximos años".
Los operadores de centros de datos ahora tienen problemas para encontrar energía eléctrica en Estados Unidos. En zonas como el norte de Virginia (el mayor centro mundial de centros de datos por su proximidad a los cables submarinos que transportan datos de ida y vuelta a Europa), estas empresas prácticamente han agotado la electricidad disponible.
Algunas gigantes de la IA han decidido recurrir a la energía nuclear. Microsoft planea volver a poner en marcha la central nuclear Three Mile Island, en Pensilvania.
Otras han optado por otras rutas. Elon Musk y xAI, su empresa emergente de IA, recientemente decidieron olvidarse de la energía limpia y adoptar una solución más rápida: instalar sus propias turbinas de gas en un nuevo centro de datos en Memphis, Tennessee.
"Mis conversaciones han pasado de '¿Dónde podemos conseguir chips de última generación?' a '¿Dónde podemos conseguir energía eléctrica?'", relató David Katz, socio de Radical Ventures, una empresa de inversión en primeras fases centrada en IA.
La IA es un tema tan candente que solo puede enfriarse con agua
Estos sistemas de IA inusualmente densos han provocado otro cambio: una forma diferente de enfriar las computadoras.
Los sistemas de IA se calientan mucho. Cuando circula desde la parte delantera de un bastidor a través de los chips que realizan los cálculos, el aire se calienta. En el centro de datos de Cirrascale en Austin, la temperatura alrededor de un bastidor era de 21,7 grados Celsius en la parte delantera y terminaba en 36 grados Celsius en la parte trasera.
Si un bastidor no se refrigera adecuadamente, las máquinas (y el centro de datos en general) corren el riesgo de incendiarse.
Justo a las afueras de Pryor, una ciudad agrícola y ganadera del extremo noreste de Oklahoma, Google tiene en marcha un proyecto que resuelve este problema a gran escala.
Trece centros de datos de Google se elevan sobre las llanuras cubiertas de hierba. Estas instalaciones albergan decenas de miles de bastidores de máquinas y utilizan cientos de megavatios de electricidad procedente de centrales eléctricas instaladas entre los edificios de hormigón. Para evitar que las máquinas se sobrecalienten, Google bombea agua fría a través de los 13 edificios.
En el pasado, las tuberías de agua de Google corrían por pasillos vacíos al lado de las estanterías de computadoras. A su paso por las tuberías, el agua fría absorbía el calor del aire circundante. Pero cuando los bastidores están repletos de chips de IA, el agua no pasa tan cerca, así que no logra absorber el calor adicional.
Google ahora tiene colocadas sus tuberías de agua justo al lado de los chips. Solo así el agua puede absorber el calor y mantener los chips en funcionamiento.
Bombear agua a través de un centro de datos lleno de equipo eléctrico es un riesgo, ya que el agua puede filtrarse de las tuberías al hardware informático. Por este motivo, Google trata el agua con productos químicos que la hacen menos propensa a conducir la electricidad y a dañar los chips.
Una vez que el agua absorbe el calor de todos esos chips, las empresas tecnológicas también deben encontrar mecanismos para volver a enfriar el agua.
En muchos casos, para hacerlo utilizan torres gigantes situadas en el tejado del centro de datos. Parte del agua se evapora de estas torres y así enfría el resto, del mismo modo que las personas se refrescan cuando sudan y el sudor se evapora de su piel.
Los centros de datos de Google consumieron 23.000 millones de litros de agua en 2023, un 17 por ciento más que el año anterior. En California, un estado que sufre sequías, más de 250 centros de datos consumen miles de millones de litros de agua al año, situación que tiene preocupados a los funcionarios locales.
Algunas empresas, entre ellas Cirrascale, utilizan enfriadoras enormes (en esencia, aparatos de aire acondicionado) para enfriar el agua. Esa estrategia reduce la presión sobre el suministro local de agua, porque reutilizan prácticamente toda el agua. El problema es que el proceso requiere más energía eléctrica.
No se ve el fin en el horizonte. El año pasado, Google puso la primera piedra de 11 centros de datos en Carolina del Sur, Indiana, Misuri y otros lugares. Meta informó que sus instalaciones más recientes, ubicadas en Richland Parish (Luisiana), serían de tales dimensiones que podrían cubrir la mayor parte de Central Park, el centro de Manhattan, Greenwich Village y el Lower East Side de Nueva York.
"Este será un año decisivo para la IA", declaró en enero Mark Zuckerberg, el director ejecutivo de Meta, en una publicación de Facebook que concluyó con la exclamación: "¡Vamos a construir!".
La carrera por crear inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los videojuegos.
La carrera por crear inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los videojuegos.
Fuentes:
Entradas relacionadas:






0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.