-
▼
2025
(Total:
526
)
-
▼
abril
(Total:
92
)
-
¿Qué son los «embeddings» en un LLM?
-
¿Qué es una ventana de contexto en un LLM?
-
Diferencias entre los procesadores Ryzen, Threadri...
-
Los videojuegos ya generan más dinero con micropag...
-
La historia de la Inteligencia Artificial (IA)
-
Duelo de titanes: procesadores Intel Xeon y AMD EPYC
-
Firebase Studio de Google te permite programar gra...
-
Jeff Bezos funda una compañía de coches eléctricos...
-
Linus Torvalds se rinde ante Git: "Es más popular ...
-
La promesa de AMD Strix Halo de jugar con un PC Ga...
-
Google convierte cualquier documento en un pódcast...
-
OpenSSH 10 se despide de DSA y da la bienvenida al...
-
Vulnerabilidad de Windows aprovechada para instala...
-
Los procesadores fotónicos, infinitamente más rápi...
-
Millones de ordenadores sumergidos en fluidos para...
-
Hackean el sitio de filtraciones del grupo de rans...
-
AMD anuncia los procesadores Ryzen 8000HX para por...
-
Disponible Commandos: Origins, una precuela que re...
-
Samsung Ballie, un robot de uso doméstico utiliza ...
-
Google lanza un protocolo abierto para que los age...
-
Anbernic RG 557, una consola portátil con Android ...
-
Archivo JPEG en WhatsApp para Windows podría ser u...
-
Tranquilo y arrepentido, así se ha mostrado el Alc...
-
Cecotec fue hackeada en 2023 y lo dice ahora: roba...
-
El uso de IA generativa hace más "tontas" a las pe...
-
Microsoft despide a una ingeniera marroquí por neg...
-
Google anuncia Sec-Gemini, un modelo de IA para re...
-
Asus, Dell, HP, Lenovo y Razer detienen sus envíos...
-
Qué es el Model Context Protocol (MCP) y cuál es s...
-
Android 16 llega hoy a los móviles Xiaomi
-
Donald Trump cree que Estados Unidos puede fabrica...
-
¿Cuánto dinero ha perdido Apple por los aranceles ...
-
Aseguran haber robado los datos de la Lista Robins...
-
La empresa matriz de Kellogg's, víctima de un cibe...
-
FreeDOS 1.4, el DOS de código abierto
-
Shotcut 25.03 ya está disponible
-
Apple ha hecho algo para mitigar los aranceles: fl...
-
Deepseek-R1: El Modelo Revolucionario que Eleva lo...
-
El bufete de abogados de Javier Tebas también usa ...
-
El CEO de Google advierte: su inteligencia artific...
-
Desarticulada una organización que creaba vídeos d...
-
La ONU alerta: la IA podría destruir más de 8 mill...
-
China anuncia un cable que transmite video 8K y al...
-
OpenAI podría añadir marcas de agua visibles a las...
-
Círculo azul de Instagram con Meta AI: qué es y có...
-
Las tecnológicas chinas apuestan por la IA con mod...
-
Gestor de paquetes Debian APT 3.0 con una interfaz...
-
Restaurar un SSD con el método del ciclo de energía
-
El invierno de la IA: así fue el período en el que...
-
Comprar un PC con ARM en 2025
-
NVIDIA publica todas sus tecnologías PhysX y Flow ...
-
Desarrollar software en 2027 será como dirigir una...
-
Así está cambiando la IA la forma en que el mundo ...
-
Crea un pasaporte falso en cinco minutos con ChatG...
-
China ha comenzado la producción masiva de batería...
-
Meta presenta Llama 4, su nuevo modelo LLM de inte...
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
Con 21 años creó una IA que engaña en entrevistas ...
-
Anthropic presenta Claude para la Educación, una I...
-
Microsoft presenta la máquina de recuperación rápi...
-
No hace falta pagar para tener un escritorio remot...
-
La Policía Nacional detiene en España a 16 persona...
-
Microsoft filtró una clave de activación un mes an...
-
Los internautas españoles claman contra la Justici...
-
Movistar no levanta el bloqueo de las IP de Cloudf...
-
Sanción a Apple de 150M€ por abuso de posición dom...
-
Archivos de FGR, SAT y más de 1,500 sitios mexican...
-
Gen-4, la IA que genera videos más realistas que Sora
-
Microsoft Word permite resumir documentos de cient...
-
Vulnerabilidades críticas en PHP y Apache Tomcat
-
Microsoft quiere cambiar el pantallazo azul de la ...
-
El Gobierno de España aprueba el DNI digital, que ...
-
Elon Musk afirma que le ha dado a la madre de su ú...
-
Un juzgado admite la demanda millonaria de la OCU ...
-
Google admite no saber por qué su IA aprende cosas...
-
Filtrados 2.800 millones de usuarios de Twitter/X,...
-
Una mujer recupera el habla 18 años después de un ...
-
Amazon Nova Act es la nueva IA que puede navegar l...
-
Un usuario se compró un lavavajillas conectado de ...
-
Hackean la megafonía de El Corte Inglés e incitan ...
-
Temperatura GPU (Tarjeta Gráfica)
-
Cifrado extremo a extremo ¿qué es?
-
Bjarne Stroustrup, creador de C++, aconseja a los ...
-
OpenAI aumenta las recompensas de su programa de v...
-
Sistema de archivos ReFS vs NTFS en Windows 11
-
Instalar LM Studio (IA LLM en local)
-
La banda del Niño Skin consiguió 'empurar' al guar...
-
-
▼
abril
(Total:
92
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- El robo del siglo: así perpetró Corea del Norte el mayor hurto de activos digitales de la historia para financiar su pro
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
- Elon Musk cobra la API de Twitter (X) a precio de oro: esta app te permite usarla gratis
Entradas populares
-
Aunque emiten radiación internamente, están diseñadas con materiales de protección que evitan emisiones externas, haciendo que sean seguras...
-
Las capacidades de la Inteligencia Artificial son tan asombrosas como escalofriantes, y es que es sorprendente cómo una máquina puede repl...
-
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificia...
Meta presenta Llama 4, su nuevo modelo LLM de inteligencia artificial
No es ningún secreto que la carrera de la inteligencia artificial avanza a una velocidad meteórica y que en casi cada semana vemos novedades de los principales actores.Meta presenta Llama 4, su nueva colección de modelos de inteligencia artificial de código abierto y no llegan uno sino cuatro: Llama 4 Scout, Llama 4 Maverick y Llama 4 Behemoth.
- Meta presenta Llama 4 con dos nuevos modelos de IA ya disponibles y otros dos en camino
- La nueva generación de IA open source de Meta; Llama 4 se compone de dos modelos:
- Llama 4 Scout (109B parámetros totales, 17B parámetros activos) con 16 expertos
- Llama 4 Maverick (400B parámetros totales, 17B parámetros activos) con 128 expertos
Como explica Meta, todos ellos han sido entrenados con 'grandes cantidades de datos no etiquetados de texto, imagen y vídeo' con un objetivo: que cuenten con una amplia comprensión visual, lo que se traducirá en experiencias de uso mucho más personalizadas. Y si echamos un vistazo a su modelo anterior Llama 3, comprobaremos además estamos ante configuraciones mucho más potentes.
Llama 4 ya está aquí y tiene unas cifras impactantes
De Llama 4 Meta explica que es su primera generación de modelos con arquitectura 'mixture of experts' (MoE), más eficiente computacionalmente tanto para entrenamiento como para resolución de consultas. ¿Cómo funcionan? En pocas palabras, dividen las tareas de procesamiento en subtareas y las asignan a modelos expertos más pequeños y especializados.
- Llama 4 Behemoth cuenta con dos billones de parámetros, cinco veces más que Llama 3
- Es parte de la nueva familia de modelos Llama 4, que también destaca por su ventana de contexto de 10 millones de tokens
Así, cuando detalla los parámetros y los expertos, entenderemos los primeros como la capacidad de razonamiento o habilidades de resolución del modelo. Por ejemplo, Maverick tiene 400.000 millones de parámetros totales, pero sólo utiliza 17.000 millones de parámetros activos repartidos entre 128 expertos.
- Llama 4 Behemoth es un impresionante modelo con casi dos billones de parámetros totales, 288.000 millones de parámetros activos y 16 expertos, el más potente hasta la fecha y uno de los modelos de lenguaje más avanzados. Todavía en fase de entrenamiento.
- Llama 4 Maverick tiene 17.000 millones de parámetros activos distribuidos entre 128 expertos.
- Llama 4 Scout también tiene 17.000 millones de parámetros activos distribuidos, pero en este caso distribuidos en 16 expertos cuenta con 10 millones de tokens de ventana de contexto.
Llama 4 Maverick será el GPT-40 de Meta
De acuerdo con la batería de pruebas de Meta, Behemoth supera a GPT-4.5, Claude 3.7 Sonnet y Gemini 2.0 Pro (aunque no a Gemini 2.5 Pro) en pruebas centradas en áreas cientificotécnicas STEM como la resolución de problemas matemáticos.
En cuanto a Maverick, está pensado para usarse como asistente general o chat (incluyendo escritura creativa), rivalizando directamente con GPT-4o de OpenAI y Gemini 2.0 de Google, a los que supera (según Meta) en ciertos benchmarks de codificación, razonamiento, multilingüismo, contexto largo e interpretación de imágenes. Eso sí, queda por detrás de modelos más recientes y potentes como Gemini 2.5 Pro, Claude 3.7 Sonnet de Anthropic, y GPT-4.5 de OpenAI.
Los puntos fuertes de Scout son el resumen de documentos y razonamiento sobre bases de código extensas. En cuanto a su enorme venta de contexto, se traduce en que tiene capacidad para analizar imágenes y hasta millones de palabras, lo que le permite trabajar con documentos extremadamente largos.
El músculo necesario para mover Llama 4. Meta explica que Scout puede funcionar con una única GPU Nvidia H100, mientras que Maverick requiere un sistema DGX con H100 o equivalente. De Behemoth no ha dado pistas, pero obviamente requerirá de un hardware todavía más potente.
Ojo porque ninguno de los modelos de LLama 4 es un de razonamiento, como sí son o1 y o3-mini de OpenAI. Este tipo de modelos con razonamiento contrastan sus respuestas antes de entregarlas, lo que implica una mayor fiabilidad a costa de ser más lentos. Curiosamente, Meta ha ajustado sus Llama 4 para que se nieguen menos a responder preguntas conflictivas. Explica la empresa de Zuckerberg que Llama 4 ahora responde a temas sociales y políticos debatidos que las versiones anteriores evitaban. Además, aseguran que Llama 4 es “mucho más equilibrado” en cuanto a los temas que rechaza directamente
Salvo Behemoth, que sigue no disponible y en fase de entrenamiento, el resto de modelos de Llama 4 pueden probarse desde ya. Así, puedes descargar los modelos Llama 4 Scout y Llama 4 Maverick en Llama.com y Hugging Face.
Llama 4 Behemoth, el "profesor de modelos". Aun no está
disponible, pero esta variante es absolutamente descomunal y cuenta con
dos billones de parámetros (2T en inglés), cuando Llama 3, que era
enorme (405B) era un modelo cinco veces más pequeño. DeepSeek R1 tiene
671.000 millones de parámetros, tres veces menos que Llama 4 Behemoth.
La clave de este modelo es que sirve como "profesor" para variantes más
pequeñas y, sobre todo, especializadas.
Pero ojo porque también el círculo azul de Meta AI de WhatsApp, Messenger, Instagram Direct ya utiliza Llama 4 en 40 países, por lo que quieras o no lo verás en las apps tan populares. Eso sí, por el momento las funciones multimodales están limitadas a Estados Unidos y solo en inglés.
¿Está la UE dentro de esos 40 países? No. Aquellas empresas, usuarios y usuarias de la Unión Europea no pueden ni utilizar ni distribuir los modelos, de acuerdo con la legislación europea sobre IA y protección de datos. Además, aquellas corporaciones qeu superen los 700 millones de usuarios activos al mes tendrán que solicitar una licencia de uso especial a Meta.
Llama-4 Scout on MLX and M3 Ultra tokens-per-sec / RAM
- 3bit: 52.924 / 47.261 GB
- 4bit: 46.942 / 60.732 GB
- 6bit: 36.260 / 87.729 GB
- 8bit: 30.353 / 114.617 GB
- fp16: 11.670 / 215.848 GB
RAM necesaria:
- - 64GB for 3bit
- - 96GB for 4bit
- - 128GB for 8bit
- - 256GB for fp16
Fuentes:
https://huggingface.co/collections/meta-llama/llama-4-67f0c30d9fe03840bc9d0164
Entradas relacionadas:






0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.