Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Un "gracias" a ChatGPT consume más que 10 búsquedas en Google... pero Sam Altman no quiere que pares para que ChatGPT suene más humano


Aunque parece un tanto extraño, resulta que este tipo de palabras que denotan educación en las personas y que ya sabes que se usan con demasiada frecuencia a la hora de hablar con la inteligencia artificial no son gratis: suman millones en la factura de la luz



Ser educado SÍ cuesta: decir 'por favor' y 'gracias' a ChatGPT no sale gratis. "Decenas de millones de dólares", según Sam Altman   

"Son decenas de millones bien gastados", dijo él en X, medio en broma, medio en serio. Pero detrás de este comentario hay un problema real: cada "gracias" que le dices a la IA gasta más energía que 10 búsquedas en Google, según la Agencia Internacional de la Energía (AIE).




Para que te hagas una idea, ChatGPT tiene 800 millones de usuarios cada semana. Si todos añadieran una palabra de más como "hola" o "adiós", el gasto se dispararía

Cada palabra extra hace que los servidores trabajen más, consuman más electricidad y necesiten más refrigeración. Y aunque OpenAI acaba de recibir 40.000 millones de dólares de inversión, el costo de mantener estas conversaciones "educadas" sigue siendo un quebradero de cabeza.

¿Por qué un "gracias" gasta tanta energía?

Todo se reduce a los tokens, que son como las monedas que usa ChatGPT para funcionar. Cada palabra que escribes se convierte en uno o varios tokens, y cada token obliga a los servidores a hacer cálculos complejos. 

Piensa en esto: una consulta normal en ChatGPT gasta entre 10 y 100 veces más energía que una búsqueda en Google. Un "por favor, gracias" de tres palabras puede no parecer mucho, pero multiplicado por millones de usuarios al día, la factura se acumula.




Además, los servidores no solo gastan electricidad al procesar tus mensajes. También necesitan sistemas de refrigeración potentes para no sobrecalentarse. 

Regresando al viral tema de las fotos estilo Ghibli que se generaron con ChatGPT, en solo cinco días, esa creación masiva consumió más de 216 millones de litros de agua, según se ha podido conocer. Este consumo equivale al suministro mensual de una pequeña ciudad. 

Según estudios recientes, cada imagen estilo Ghibli puede consumir hasta 3,45 litros de agua solo para enfriar los servidores. Esto ocurre porque gran parte del agua utilizada se evapora durante el proceso, mientras que el resto se recircula para enfriar nuevamente. Se espera que la demanda mundial de IA consuma entre 4.200 y 6.600 millones de metros cúbicos de agua para 2027, superando el consumo total de agua de Dinamarca.

Yendo al apartado energético, Naciones Unidas está evaluando el consumo de energía de la IA, y nos ofrece algunos datos interesantes que ponen en contexto este tema. En su informe ¿Cuánta energía necesita la IA?, piden evaluar los ciclos del hardware y el software en su conjunto.

El ciclo de vida del hardware incluye la extracción de materias primas, la producción, el transporte y la construcción del centro de datos, la gestión, el mantenimiento y la eliminación de residuos electrónicos.

El ciclo de vida del software incluye la recopilación y preparación de datos, la creación de modelos, el entrenamiento, la validación, la implementación, la inferencia, el mantenimiento y la retirada. 

Altman lo asume y prefiere pagar millones por conversaciones humanas

Sam Altman ha decidido que el gasto vale la pena y, para él, que ChatGPT suene más humano es importante, aunque eso signifique pagar "decenas de millones" extra al año. Pero no todos están de acuerdo. 


Microsoft, que trabaja con OpenAI, descubrió que las peticiones educadas dan respuestas más útiles, pero también reconocen que el gasto energético es un problema. Google, mientras tanto, sigue buscando formas de que sus sistemas consuman menos.

Pero cuidado que el tema preocupa a más gente y el Banco Central Europeo avisó en 2024 de que la IA podría hacer subir el precio de la luz en Europa. Y aunque entrenar modelos como GPT-3 ya gastó 78.437 kWh —lo que consume una casa española en 23 años—, cada nueva versión de ChatGPT gasta aún más. 


Fuentes:

https://computerhoy.20minutos.es/tecnologia/gracias-chatgpt-consume-10-busquedas-google-pero-sam-altman-no-quiere-pares-motivo-1456226


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.