Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1019
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
-
▼
diciembre
(Total:
72
)
- Confirman robo del código fuente de Grand Theft Au...
- Apple quiere entrenar su inteligencia artificial c...
- Top 10 de vulnerabilidades críticas en aplicacione...
- Otra cadena de vulnerabilidades en Outlook permite...
- España analiza los niveles de radiación del iPhone...
- Peugeot usaba la Game Boy para realizar los diagnó...
- CVE-2023-35628: vulnerabilidad silenciosa por e-ma...
- OpenAI define las estrategias para evitar que la i...
- Zorin OS 17, la distribución de Linux que se ve co...
- ¿Comprar un HDD o un SSD? SSD siempre, menos para NAS
- Hyperloop One cierra: la utopía de Elon Musk desap...
- ¿Qué es el UPnP del router? y Tipos de NAT en Cons...
- Detenidos 5 ciberdelincuentes por estafar mediante...
- Condenan al autista por filtrar GTA VI: permanecer...
- Cae una red en España que ha estafado al menos 190...
- Synology - Conocimientos básicos del cifrado en DS...
- Diferentes tipos de velocidades WiFi: canales y ba...
- Retirado el mayor conjunto de datos de imágenes de...
- Galaxy S24: filtradas todas sus características y ...
- Inaugurado el superordenador MareNostrum 5, uno de...
- Tesla culpó a sus usuarios de fallos de fabricación
- Stable Diffusion y otras IA generativas se entrena...
- El FBI desmantela el ransomware BlackCat y obtiene...
- Comparativa de rendimiento velocidad red: 10 Gbe v...
- La Universidad de Buenos Aires (UBA) víctima de un...
- OpenAI se ha convertido en la compañía más importa...
- Google pagará 700 millones de dólares para aparcar...
- ¿Qué es ZFS? ¿Qué ventajas tiene sobre otros siste...
- MongoDB confirma que datos de clientes quedaron ex...
- La Comisión Europea abre expediente a Twitter por ...
- Sistema pionero español para que los menores no ac...
- OpenAI suspende la cuenta de ByteDance (TikTok) po...
- Tutorial Apache modsecurity (WAF)
- Twitch permite más contenido sexual
- Google Imagen 2, la inteligencia artificial para c...
- Dropbox comparte tus archivos con OpenAI sin que t...
- El fabricante de chips NXP fue hackeado en 2017 y ...
- El BSC presenta Sargantana, la nueva generación de...
- Apple impedirá que un ladrón pueda usar un iPhone ...
- El Gobierno Español propone restringir el uso de l...
- Utilizan Google Forms en ataques de Phishing
- Si tu PC Windows se ‘congela’, revisa el antivirus...
- E3: la feria más importante de los videojuegos mue...
- Insomniac Games hackeado por el ransomware Rhysida...
- El despilfarro de la IA: se necesitan dos centrale...
- Optimus Gen 2, el nuevo robot humanoide de Elon Mu...
- Vulnerabilidad crítica en plugin de WordPress Back...
- Europa quiere normas para combatir la adicción a l...
- Microsoft presenta Phi-2, una inteligencia artific...
- Paquetes con malware en proyectos del repositorio ...
- DNS0: El DNS público europeo que hace Internet más...
- ¿Qué diferencia hay entre un disco duro WD Red Plu...
- Linux tendrá su propia pantalla de la muerte azul ...
- El ordenador con más malware del mundo: 'Most Infe...
- Configurar el firewall de Windows
- Apple publica actualizaciones de seguridad para pa...
- El estándar Wi-Fi 7, a punto de ser aprobado: lleg...
- Epic Games gana a Google el juicio antimonopolio c...
- En la mitad de los casos las instrusiones se produ...
- La UE aprueba la primera Ley de Inteligencia Artif...
- Cómo la IA puede ayudar a los equipos de seguridad
- LogoFAIL: ataque al firmware, que afecta a Windows...
- Lo más buscado en Google en 2023
- La NASA se dedicó a drogar arañas para comprobar l...
- Kelvinsecurity: detenido el líder de uno de los gr...
- El navegador Brave lanza Leo, su IA tipo ChatGPT q...
- FirewallD viniendo de iptables
- Google retrasa el lanzamiento de Gemini, su respue...
- Vulnerabilidades críticas en UEFI: LogoFAIL expone...
- Bloquear LOLbins con el firewall de Windows
- Fases fundamentales de un análisis forense digital
- Tiny11, la versión ligera de Windows 11
- ► septiembre (Total: 65 )
-
▼
diciembre
(Total:
72
)
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
En el panorama en constante evolución de la seguridad de redes, OpnSense se ha convertido en una formidable solución de firewall. Nacido de...
-
Pese a que Gemini ofrece multitudes de opciones, recientemente, se ha dado a conocer una situación fuera de lo común. Hace unos días, un es...
El despilfarro de la IA: se necesitan dos centrales nucleares para alimentar un año a la inteligencia artificial del mundo
El riesgo de que la inteligencia artificial (IA) sea una amenaza para la humanidad, como afirman fuentes anónimas relacionadas con OpenAI en Reuters es un problema que se podría evitar y que nunca llegue a producirse. Sin embargo, hay un inconveniente de la IA que está afectando en la actualidad y del que no se habla tanto: la energía que utilizan es demasiada.
- La energía de las dos centrales se utilizaría solo para la implementación de modelos de IA en las aplicaciones, según el director de ingeniería de IA generativa de Meta, Sergey Edunov, y el entrenamiento consume más.
El director de ingeniería de IA generativa de Meta, Sergey Edunov, ha afirmado en una mesa redonda que la creciente demanda que se prevé para 2024 de aplicaciones de IA supondría el mismo gasto que dos plantas de energía nuclear. Según detalló, se trataba de una estimación aproximada realizada con matemáticas básicas de lo que denomina 'inferencia'.
El proceso de inferencia de IA es aquel en el que se implementa la IA en una app para responder a una pregunta o hacer una recomendación. Es decir, la energía que se usaría en dos centrales no serviría para lo que se conoce como el 'entrenamiento' de un modelo de IA, que es cuando se utilizan cantidades masivas de datos para que esté listo y se puedan realizar las inferencias.
Según un estudio de la Universidad Cornell (Ithaca, Nueva York), el entrenamiento de ChatGPT-3, la generación anterior a ChatGPT-4, supuso un consumo de 700.000 litros. Para que nos hagamos una idea, esa misma cantidad de agua es la que usan todos los centros de datos de Microsoft en Estados Unidos. Además, por cada conversación, el modelo de lenguaje grande (LLM) se 'bebe' medio litro de agua de media.
La creación de apps con IA no es un problema
A pesar del conflicto que puede generar la idea de que la IA consume demasiado, lo cierto es que Edunov se muestra positivo y asegura que se puede resolver el problema de la creciente demanda de aplicaciones. Según cuenta, las necesidades energéticas para la inferencia están bajo control.
Sobre la inferencia, señaló que Nvidia, que es el máximo proveedor de procesadores para IA, está listo para lanzar entre uno y dos millones de sus GPU H100 para 2024. Edunov calcula que, si todos estos chips se usasen para generar tokens para LLM de tamaño razonable, se llegaría a los 100.000 tokens por persona en el planeta al día.
Los tokens son las unidades básicas de texto que utilizan para procesar y generar el lenguaje. Según cómo se diseñe el LLM, pueden ir desde palabras, a partes de palabras o caracteres de palabras. Es decir, un token puede ser 'hola' o dividirse en 'ho' y 'la'.
No hay suficientes datos para el entrenamiento de IA
El desafío de la IA, según Edunov, se encuentra en la limitación a la hora de obtener los suficientes datos para su entrenamiento. Para ello, pone el ejemplo de ChatGPT-4, que se especula que fue entrenado con todos los datos de Internet que están disponible públicamente.
El experto de Meta cuenta que, si descargas todo el Internet disponible públicamente, equivaldría a unos 100 billones de tokens, que, si los limpias y eliminas datos duplicados, podría reducirse a una cifra de entre 10 y 20 billones de tokens.
En el caso de que busques contenido de calidad, el número de tokens se reduce considerablemente. Edunov asegura que "la cantidad de conocimiento destilado que la humanidad ha creado a lo largo de los siglos no es tan grande" como podríamos imaginar.
En la mesa redonda, el profesional de la empresa de Mark Zuckerberg explicó que, si suponemos que ChatGPT-4 se entrenó con los datos públicos de Internet, ha llegado a los 20 billones de tokens. Edunov estima que los modelos de próxima generación dispondrán de 10 veces más datos, por lo que tendría que alcanzar los 200 billones de tokens, siendo insuficientes los datos públicos.
Como alternativa, Edunov dice que los investigadores están trabajando en técnicas de eficiencia para hacer que los modelos sean más eficientes e inteligentes con cantidades de datos más pequeñas. También planteó la idea de aprovechar otras fuentes de datos, como los vídeos.
Fuentes:
1 comentarios :
Se gasta el circulo vicioso, la deuda seria inteligencia para pagarla.
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.