Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
564
)
-
▼
abril
(Total:
130
)
-
¿Cuáles son los mejores sistemas operativos para l...
-
¿Por qué Graphene OS sólo es compatible con los te...
-
Western Digital anuncia discos duros de 40 TB para...
-
Vulnerabilidad crítica en la función extract() de ...
-
#laligagate, la movilización de usuarios y webs pa...
-
Operación Bonanza, una estafa piramidal de más de ...
-
Ucrania equipa sus drones con malware para sabotea...
-
Proxmox lanza la versión 8.4 de su plataforma de v...
-
Los primeros robots humanoides en correr una media...
-
Vulnerabilidad Windows NTLM explotada para robo de...
-
Vulnerabilidad en Cisco Webex permite ejecutar cód...
-
"ChatGPT es mi amigo y mi terapeuta": cada vez más...
-
Onorato IA, el loro robot que acompaña, habla y cu...
-
Investigadores descubren una nueva forma de evitar...
-
Alerta por la nueva función de Instagram que muest...
-
Un abogado cita sentencias "inexistentes" inventad...
-
Cuáles son los principales ataques a modelos de in...
-
RAID y ZFS: ¿Qué son y para qué sirven?
-
La justicia de Estados Unidos determina que Google...
-
Hackeó la Xbox antes que nadie y de paso logró alg...
-
Alertan sobre el aumento de los casos de clonación...
-
Windows 7 Elite Edition, ¿por qué no puede ser así...
-
OpenAI presenta o3 y o4-mini, sus modelos de razon...
-
Utilizar la IA de OpenAI para averiguar la ubicaci...
-
Meta empieza a usar lo que publicas en Facebook e ...
-
Los teléfonos Android se reiniciarán solos tras 3 ...
-
Make web mapping (open source) great again
-
El disco en PS5 de Indiana Jones y el Gran Círculo...
-
Desarrollan una herramienta de IA financiada por e...
-
ChatGPT se convierte en la aplicación móvil más de...
-
Google Chrome corrige un error de privacidad que a...
-
Fortinet advierte que atacantes pueden conservar e...
-
4chan hackeado, roban datos personales y el código...
-
La vida útil de los certificados SSL/TLS se reduci...
-
ServerlessHorrors: la web que recoge las peores pe...
-
Estados Unidos deja atrás las cintas magnéticas co...
-
FACUA pide a la AEPD que investigue a Cecotec por ...
-
Le han enseñado todos los capítulos de ‘Tom y Jerr...
-
¿Qué son los «embeddings» en un LLM?
-
¿Qué es una ventana de contexto en un LLM?
-
Diferencias entre los procesadores Ryzen, Threadri...
-
Los videojuegos ya generan más dinero con micropag...
-
La historia de la Inteligencia Artificial (IA)
-
Duelo de titanes: procesadores Intel Xeon y AMD EPYC
-
Firebase Studio de Google te permite programar gra...
-
Jeff Bezos funda una compañía de coches eléctricos...
-
Linus Torvalds se rinde ante Git: "Es más popular ...
-
La promesa de AMD Strix Halo de jugar con un PC Ga...
-
Google convierte cualquier documento en un pódcast...
-
OpenSSH 10 se despide de DSA y da la bienvenida al...
-
Vulnerabilidad de Windows aprovechada para instala...
-
Los procesadores fotónicos, infinitamente más rápi...
-
Millones de ordenadores sumergidos en fluidos para...
-
Hackean el sitio de filtraciones del grupo de rans...
-
AMD anuncia los procesadores Ryzen 8000HX para por...
-
Disponible Commandos: Origins, una precuela que re...
-
Samsung Ballie, un robot de uso doméstico utiliza ...
-
Google lanza un protocolo abierto para que los age...
-
Anbernic RG 557, una consola portátil con Android ...
-
Archivo JPEG en WhatsApp para Windows podría ser u...
-
Tranquilo y arrepentido, así se ha mostrado el Alc...
-
Cecotec fue hackeada en 2023 y lo dice ahora: roba...
-
El uso de IA generativa hace más "tontas" a las pe...
-
Microsoft despide a una ingeniera marroquí por neg...
-
Google anuncia Sec-Gemini, un modelo de IA para re...
-
Asus, Dell, HP, Lenovo y Razer detienen sus envíos...
-
Qué es el Model Context Protocol (MCP) y cuál es s...
-
Android 16 llega hoy a los móviles Xiaomi
-
Donald Trump cree que Estados Unidos puede fabrica...
-
¿Cuánto dinero ha perdido Apple por los aranceles ...
-
Aseguran haber robado los datos de la Lista Robins...
-
La empresa matriz de Kellogg's, víctima de un cibe...
-
FreeDOS 1.4, el DOS de código abierto
-
Shotcut 25.03 ya está disponible
-
Apple ha hecho algo para mitigar los aranceles: fl...
-
Deepseek-R1: El Modelo Revolucionario que Eleva lo...
-
El bufete de abogados de Javier Tebas también usa ...
-
El CEO de Google advierte: su inteligencia artific...
-
Desarticulada una organización que creaba vídeos d...
-
La ONU alerta: la IA podría destruir más de 8 mill...
-
China anuncia un cable que transmite video 8K y al...
-
OpenAI podría añadir marcas de agua visibles a las...
-
Círculo azul de Instagram con Meta AI: qué es y có...
-
Las tecnológicas chinas apuestan por la IA con mod...
-
Gestor de paquetes Debian APT 3.0 con una interfaz...
-
Restaurar un SSD con el método del ciclo de energía
-
El invierno de la IA: así fue el período en el que...
-
Comprar un PC con ARM en 2025
-
NVIDIA publica todas sus tecnologías PhysX y Flow ...
-
Desarrollar software en 2027 será como dirigir una...
-
Así está cambiando la IA la forma en que el mundo ...
-
Crea un pasaporte falso en cinco minutos con ChatG...
-
China ha comenzado la producción masiva de batería...
-
Meta presenta Llama 4, su nuevo modelo LLM de inte...
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
-
▼
abril
(Total:
130
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Instagram sumó en los últimos días una nueva herramienta que permite compartir la ubicación exacta de los usuarios en tiempo real . Es...
-
Uno de los casos más extremos recogidos en la web es el de un usuario de Google Cloud que, tras pagar solo 50 dólares mensuales, despertó un...
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
Meta presenta Llama 4, su nuevo modelo LLM de inteligencia artificial
No es ningún secreto que la carrera de la inteligencia artificial avanza a una velocidad meteórica y que en casi cada semana vemos novedades de los principales actores.Meta presenta Llama 4, su nueva colección de modelos de inteligencia artificial de código abierto y no llegan uno sino cuatro: Llama 4 Scout, Llama 4 Maverick y Llama 4 Behemoth.
- Meta presenta Llama 4 con dos nuevos modelos de IA ya disponibles y otros dos en camino
- La nueva generación de IA open source de Meta; Llama 4 se compone de dos modelos:
- Llama 4 Scout (109B parámetros totales, 17B parámetros activos) con 16 expertos
- Llama 4 Maverick (400B parámetros totales, 17B parámetros activos) con 128 expertos
Como explica Meta, todos ellos han sido entrenados con 'grandes cantidades de datos no etiquetados de texto, imagen y vídeo' con un objetivo: que cuenten con una amplia comprensión visual, lo que se traducirá en experiencias de uso mucho más personalizadas. Y si echamos un vistazo a su modelo anterior Llama 3, comprobaremos además estamos ante configuraciones mucho más potentes.
Llama 4 ya está aquí y tiene unas cifras impactantes
De Llama 4 Meta explica que es su primera generación de modelos con arquitectura 'mixture of experts' (MoE), más eficiente computacionalmente tanto para entrenamiento como para resolución de consultas. ¿Cómo funcionan? En pocas palabras, dividen las tareas de procesamiento en subtareas y las asignan a modelos expertos más pequeños y especializados.
- Llama 4 Behemoth cuenta con dos billones de parámetros, cinco veces más que Llama 3
- Es parte de la nueva familia de modelos Llama 4, que también destaca por su ventana de contexto de 10 millones de tokens
Así, cuando detalla los parámetros y los expertos, entenderemos los primeros como la capacidad de razonamiento o habilidades de resolución del modelo. Por ejemplo, Maverick tiene 400.000 millones de parámetros totales, pero sólo utiliza 17.000 millones de parámetros activos repartidos entre 128 expertos.
- Llama 4 Behemoth es un impresionante modelo con casi dos billones de parámetros totales, 288.000 millones de parámetros activos y 16 expertos, el más potente hasta la fecha y uno de los modelos de lenguaje más avanzados. Todavía en fase de entrenamiento.
- Llama 4 Maverick tiene 17.000 millones de parámetros activos distribuidos entre 128 expertos.
- Llama 4 Scout también tiene 17.000 millones de parámetros activos distribuidos, pero en este caso distribuidos en 16 expertos cuenta con 10 millones de tokens de ventana de contexto.
Llama 4 Maverick será el GPT-40 de Meta
De acuerdo con la batería de pruebas de Meta, Behemoth supera a GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro (aunque no a Gemini 2.5 Pro) en pruebas centradas en áreas cientificotécnicas STEM como la resolución de problemas matemáticos.
En cuanto a Maverick, está pensado para usarse como asistente general o chat (incluyendo escritura creativa), rivalizando directamente con GPT-4o de OpenAI y Gemini 2.0 de Google, a los que supera (según Meta) en ciertos benchmarks de codificación, razonamiento, multilingüismo, contexto largo e interpretación de imágenes. Eso sí, queda por detrás de modelos más recientes y potentes como Gemini 2.5 Pro, Claude 3.7 Sonnet de Anthropic, y GPT-4.5 de OpenAI.
Los puntos fuertes de Scout son el resumen de documentos y razonamiento sobre bases de código extensas. En cuanto a su enorme venta de contexto, se traduce en que tiene capacidad para analizar imágenes y hasta millones de palabras, lo que le permite trabajar con documentos extremadamente largos.
El músculo necesario para mover Llama 4. Meta explica que Scout puede funcionar con una única GPU Nvidia H100, mientras que Maverick requiere un sistema DGX con H100 o equivalente. De Behemoth no ha dado pistas, pero obviamente requerirá de un hardware todavía más potente.
Ojo porque ninguno de los modelos de LLama 4 es un de razonamiento, como sí son o1 y o3-mini de OpenAI. Este tipo de modelos con razonamiento contrastan sus respuestas antes de entregarlas, lo que implica una mayor fiabilidad a costa de ser más lentos. Curiosamente, Meta ha ajustado sus Llama 4 para que se nieguen menos a responder preguntas conflictivas. Explica la empresa de Zuckerberg que Llama 4 ahora responde a temas sociales y políticos debatidos que las versiones anteriores evitaban. Además, aseguran que Llama 4 es “mucho más equilibrado” en cuanto a los temas que rechaza directamente
Salvo Behemoth, que sigue no disponible y en fase de entrenamiento, el resto de modelos de Llama 4 pueden probarse desde ya. Así, puedes descargar los modelos Llama 4 Scout y Llama 4 Maverick en Llama.com y Hugging Face.
Llama 4 Behemoth, el "profesor de modelos". Aun no está
disponible, pero esta variante es absolutamente descomunal y cuenta con
dos billones de parámetros (2T en inglés), cuando Llama 3, que era
enorme (405B) era un modelo cinco veces más pequeño. DeepSeek R1 tiene
671.000 millones de parámetros, tres veces menos que Llama 4 Behemoth.
La clave de este modelo es que sirve como "profesor" para variantes más
pequeñas y, sobre todo, especializadas.
Pero ojo porque también el círculo azul de Meta AI de WhatsApp, Messenger, Instagram Direct ya utiliza Llama 4 en 40 países, por lo que quieras o no lo verás en las apps tan populares. Eso sí, por el momento las funciones multimodales están limitadas a Estados Unidos y solo en inglés.
¿Está la UE dentro de esos 40 países? No. Aquellas empresas, usuarios y usuarias de la Unión Europea no pueden ni utilizar ni distribuir los modelos, de acuerdo con la legislación europea sobre IA y protección de datos. Además, aquellas corporaciones qeu superen los 700 millones de usuarios activos al mes tendrán que solicitar una licencia de uso especial a Meta.
Llama-4 Scout on MLX and M3 Ultra tokens-per-sec / RAM
- 3bit: 52.924 / 47.261 GB
- 4bit: 46.942 / 60.732 GB
- 6bit: 36.260 / 87.729 GB
- 8bit: 30.353 / 114.617 GB
- fp16: 11.670 / 215.848 GB
RAM necesaria:
- - 64GB for 3bit
- - 96GB for 4bit
- - 128GB for 8bit
- - 256GB for fp16
Fuentes:
https://huggingface.co/collections/meta-llama/llama-4-67f0c30d9fe03840bc9d0164
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.