Portátiles SLIMBOOK
Entradas Mensuales
Síguenos en:
Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Meta presenta Llama 4, su nuevo modelo LLM de inteligencia artificial


No es ningún secreto que la carrera de la inteligencia artificial avanza a una velocidad meteórica y que en casi cada semana vemos novedades de los principales actores.Meta presenta Llama 4, su nueva colección de modelos de inteligencia artificial de código abierto y no llegan uno sino cuatro:  Llama 4 Scout, Llama 4 Maverick y Llama 4 Behemoth.

 


 

 

  • Meta presenta Llama 4 con dos nuevos modelos de IA ya disponibles y otros dos en camino
  • La nueva generación de IA open source de Meta; Llama 4 se compone de dos modelos:
  1.  Llama 4 Scout (109B parámetros totales, 17B parámetros activos) con 16 expertos
  2.  Llama 4 Maverick (400B parámetros totales, 17B parámetros activos) con 128 expertos

Como explica Meta, todos ellos han sido entrenados con 'grandes cantidades de datos no etiquetados de texto, imagen y vídeo' con un objetivo: que cuenten con una amplia comprensión visual, lo que se traducirá en experiencias de uso mucho más personalizadas. Y si echamos un vistazo a su modelo anterior Llama 3, comprobaremos además estamos ante configuraciones mucho más potentes.


Llama 4 ya está aquí y tiene unas cifras impactantes

De Llama 4 Meta explica que es su primera generación de modelos con arquitectura 'mixture of experts' (MoE), más eficiente computacionalmente tanto para entrenamiento como para resolución de consultas. ¿Cómo funcionan? En pocas palabras, dividen las tareas de procesamiento en subtareas y las asignan a modelos expertos más pequeños y especializados.

  • Llama 4 Behemoth cuenta con dos billones de parámetros, cinco veces más que Llama 3
  • Es parte de la nueva familia de modelos Llama 4, que también destaca por su ventana de contexto de 10 millones de tokens

 


 

Así, cuando detalla los parámetros y los expertos, entenderemos los primeros como la capacidad de razonamiento o habilidades de resolución del modelo. Por ejemplo, Maverick tiene 400.000 millones de parámetros totales, pero sólo utiliza 17.000 millones de parámetros activos repartidos entre 128 expertos.

  • Llama 4 Behemoth es un impresionante modelo con casi dos billones de parámetros totales, 288.000 millones de parámetros activos y 16 expertos, el más potente hasta la fecha y uno de los modelos de lenguaje más avanzados. Todavía en fase de entrenamiento.
  • Llama 4 Maverick tiene 17.000 millones de parámetros activos distribuidos entre 128 expertos. 
  • Llama 4 Scout también tiene 17.000 millones de parámetros activos distribuidos, pero en este caso distribuidos en 16 expertos cuenta con 10 millones de tokens de ventana de contexto.

Llama 4 Maverick será el GPT-40 de Meta

De acuerdo con la batería de pruebas de Meta,  Behemoth supera a GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro (aunque no a Gemini 2.5 Pro) en pruebas centradas en áreas cientificotécnicas STEM como la resolución de problemas matemáticos.


En cuanto a Maverick, está pensado para usarse como asistente general o chat (incluyendo escritura creativa), rivalizando directamente con GPT-4o de OpenAI y Gemini 2.0 de Google, a los que supera (según Meta) en ciertos benchmarks de codificación, razonamiento, multilingüismo, contexto largo e interpretación de imágenes. Eso sí, queda por detrás de modelos más recientes y potentes como Gemini 2.5 Pro, Claude 3.7 Sonnet de Anthropic, y GPT-4.5 de OpenAI.

Los puntos fuertes de Scout son el resumen de documentos y razonamiento sobre bases de código extensas. En cuanto a su enorme venta de contexto, se traduce en que tiene capacidad para analizar imágenes y hasta millones de palabras, lo que le permite trabajar con documentos extremadamente largos.

El músculo necesario para mover Llama 4. Meta explica que Scout puede funcionar con una única GPU Nvidia H100, mientras que Maverick requiere un sistema DGX con H100 o equivalente. De Behemoth no ha dado pistas, pero obviamente requerirá de un hardware todavía más potente.

 

Ojo porque ninguno de los modelos de LLama 4 es un de razonamiento, como sí son o1 y o3-mini de OpenAI. Este tipo de modelos con razonamiento contrastan sus respuestas antes de entregarlas, lo que implica una mayor fiabilidad a costa de ser más lentos. Curiosamente, Meta ha ajustado sus Llama 4 para que se nieguen menos a responder preguntas conflictivas. Explica la empresa de Zuckerberg que Llama 4 ahora responde a temas sociales y políticos debatidos que las versiones anteriores evitaban. Además, aseguran que Llama 4 es “mucho más equilibrado” en cuanto a los temas que rechaza directamente


Salvo Behemoth, que sigue no disponible y en fase de entrenamiento, el resto de modelos de Llama 4 pueden probarse desde ya. Así, puedes descargar los modelos Llama 4 Scout y Llama 4 Maverick en Llama.com y Hugging Face.

Llama 4 Behemoth, el "profesor de modelos". Aun no está disponible, pero esta variante es absolutamente descomunal y cuenta con dos billones de parámetros (2T en inglés), cuando Llama 3, que era enorme (405B) era un modelo cinco veces más pequeño. DeepSeek R1 tiene 671.000 millones de parámetros, tres veces menos que Llama 4 Behemoth. La clave de este modelo es que sirve como "profesor" para variantes más pequeñas y, sobre todo, especializadas.


Pero ojo porque también el círculo azul de Meta AI de WhatsApp, Messenger, Instagram Direct ya utiliza Llama 4 en 40 países, por lo que quieras o no lo verás en las apps tan populares. Eso sí, por el momento las funciones multimodales están limitadas a Estados Unidos y solo en inglés.


 

¿Está la UE dentro de esos 40 países? No. Aquellas empresas, usuarios y usuarias de la Unión Europea no pueden ni utilizar ni distribuir los modelos, de acuerdo con la legislación europea sobre IA y protección de datos. Además, aquellas corporaciones qeu superen los 700 millones de usuarios activos al mes tendrán que solicitar una licencia de uso especial a Meta.

Llama-4 Scout on MLX and M3 Ultra tokens-per-sec / RAM

  • 3bit: 52.924 / 47.261 GB
  • 4bit: 46.942 / 60.732 GB
  • 6bit: 36.260 / 87.729 GB
  • 8bit: 30.353 / 114.617 GB
  • fp16: 11.670 / 215.848 GB


RAM necesaria:

  • - 64GB for 3bit
  • - 96GB for 4bit
  • - 128GB for 8bit
  • - 256GB for fp16


 

 

Fuentes:

https://www.genbeta.com/actualidad/meta-lanza-llama-4-su-impresionante-nueva-generacion-ia-open-source-que-entiende-que-ve-como-nunca-puedes-probarlos

https://huggingface.co/collections/meta-llama/llama-4-67f0c30d9fe03840bc9d0164 


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.