Tienda FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon OpenAI lanza GPT-5.4 Mini y Nano para responder el doble de rápido


OpenAI ha anunciado oficialmente el lanzamiento de GPT-5.4 mini y GPT-5.4 nano, presentando sus modelos pequeños más avanzados, diseñados para manejar cargas de trabajo de alto volumen y sensibles a la latencia. La nueva versión mini ofrece una mejora significativa en rendimiento respecto al anterior GPT-5 mini en razonamiento, codificación, uso de herramientas y comprensión multimodal, además de funcionar más del doble de rápido





  • OpenAI ha lanzado oficialmente GPT-5.4 mini y GPT-5.4 nano, presentando sus modelos pequeños más capaces diseñados para manejar cargas de trabajo de alto volumen y sensibles a la latencia.

La nueva versión mini ofrece una mejora significativa en el rendimiento respecto al GPT-5 mini anterior en razonamiento, codificación, uso de herramientas y comprensión multimodal, mientras funciona más del doble de rápido.

Estos modelos están diseñados para aplicaciones donde la velocidad influye directamente en la experiencia del usuario, como asistentes de codificación responsivos, aplicaciones multimodales en tiempo real y sistemas que capturan e interpretan capturas de pantalla.

El lanzamiento demuestra que el modelo más grande no siempre es la mejor opción; en cambio, los sistemas que responden rápidamente y usan herramientas de manera confiable suelen ser superiores para flujos de trabajo profesionales complejos.

GPT-5.4 Mini y Nano

Ambos modelos muestran una efectividad excepcional en entornos de codificación que requieren iteración rápida, incluyendo navegación de bases de código, bucles de depuración, generación de código front-end y ediciones específicas.

Los benchmarks indican que GPT-5.4 mini se acerca a la precisión del modelo insignia GPT-5.4 en evaluaciones como SWE-Bench Pro, ofreciendo una de las mejores relaciones rendimiento-latencia para desarrolladores.

Un destacado técnico es su integración en arquitecturas de subagentes. En plataformas como Codex, los desarrolladores pueden desplegar un modelo más grande como GPT-5.4 para planificación compleja, coordinación y juicio final, mientras delegan tareas más específicas a subagentes GPT-5.4 mini.

Estos agentes más pequeños pueden procesar documentos de apoyo, buscar en bases de código y revisar archivos grandes en paralelo.

Esta composición permite que los sistemas se ejecuten más rápido y escalen de manera eficiente sin depender de un único modelo masivo para operaciones menores.

GPT-5.4 mini introduce mejoras sustanciales en tareas multimodales, especialmente en escenarios de uso de computadoras. El modelo puede analizar rápidamente capturas de pantalla de interfaces de usuario densas para ejecutar acciones con alta precisión.

En el benchmark OSWorld-Verified, GPT-5.4 mini alcanzó una precisión del 72.1%, casi igualando el 75.0% del GPT-5.4 más grande y superando ampliamente el 42.0% del antiguo GPT-5 mini.


OSWorld-verified, GPT-5.4 mini se acerca a GPT-5.4 y supera significativamente a GPT-5 mini (fuente: OpenAI)

Para tareas de soporte más simples, GPT-5.4 nano es la opción más pequeña y rentable. OpenAI recomienda este modelo para extracción de datos, clasificación, ranking y tareas de codificación ligeras donde la velocidad y la eficiencia de costos son críticas.

GPT-5.4 mini está actualmente disponible a través de la API de OpenAI, Codex y ChatGPT. En la API, cuenta con una ventana de contexto masiva de 400k tokens, soportando entradas de texto e imagen, llamadas a funciones, búsqueda web y uso de computadoras.


El costo es de 0.75 dólares por millón de tokens de entrada y 4.50 dólares por millón de tokens de salida.

En Codex, los desarrolladores pueden manejar tareas rutinarias de codificación usando GPT-5.4 mini por aproximadamente un tercio del costo, utilizando solo el 30% de la cuota estándar de GPT-5.4.

Los usuarios de ChatGPT Free y Go pueden acceder al modelo a través de la función Thinking. Al mismo tiempo, sirve como respaldo de límite de tasa para otros niveles.

La variante nano sigue disponible exclusivamente a través de la API, con un precio de 0.20 dólares por millón de tokens de entrada y 1.25 dólares por millón de tokens de salida.

Desde el lanzamiento de GPT-5 el pasado verano, la compañía había centrado sus avances en versiones más potentes como GPT-5.4, dejando en segundo plano la evolución de sus modelos compactos. Esto permitió a otros competidores ganar terreno en el segmento de soluciones rápidas y eficientes. Ahora, OpenAI reequilibra su oferta con dos modelos que priorizan la velocidad y el coste.

Por un lado, GPT-5.4 Mini se posiciona como el modelo pequeño más avanzado de la compañía hasta la fecha. Mejora de forma notable a GPT-5 Mini en tareas como programación, razonamiento, comprensión multimodal y uso de herramientas, además de ofrecer un rendimiento más de dos veces superior en velocidad. Incluso en distintas pruebas de referencia, este modelo se acerca al rendimiento del propio GPT-5.4.

Por su parte, GPT-5.4 Nano se presenta como una alternativa más económica, orientada a tareas como clasificación, extracción de datos o agentes de código, superando claramente a su predecesor en rendimiento.

En cuanto a disponibilidad, GPT-5.4 Mini ya puede utilizarse en ChatGPT, Codex y a través de la API para desarrolladores. Ofrece compatibilidad con texto e imágenes, así como funciones avanzadas como uso de herramientas, búsqueda web, gestión de archivos y ejecución en entornos informáticos. Además, cuenta con una ventana de contexto de 400.000 tokens. Su precio se sitúa en 0,75 dólares por millón de tokens de entrada y 4,50 por millón de salida.

Para los desarrolladores, este modelo resulta especialmente atractivo, ya que solo consume el 30% de la cuota de GPT-5.4 en herramientas como Codex, lo que lo hace adecuado para tareas menos exigentes. En ChatGPT, está disponible para usuarios gratuitos y Go mediante la función “Pensar”, mientras que en planes premium actúa como alternativa cuando el modelo principal no está disponible.

En cambio, GPT-5.4 Nano queda reservado exclusivamente para la API, con un coste más reducido de 0,20 dólares por millón de tokens de entrada y 1,25 dólares por millón de salida.



Fuentes:
https://computerhoy.20minutos.es/tecnologia/gpt-5-4-mini-nano-ya-son-oficiales-openai-apuesta-por-modelos-mas-rapidos-baratos_6947856_0.html
https://cybersecuritynews.com/openai-launches-gpt-5-4-mini-and-nano/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.