Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon OpenAI lanza GPT-4o, un modelo más rápido y con mejores capacidades de texto, visión y audio


OpenAI ha presentado GPT-4o, una nueva versión del modelo GPT-4 con el que ChatGPT espera dar un nuevo paso adelante. El despliegue de GPT-4o ya está en marcha. Primero llegará a los suscriptores Plus que tienen acceso prioritario nuevas funciones y mejoras así como respuestas más rápidas, y después a los usuarios que usan ChatGPT de forma gratuita.




Durante la presentación de GPT-4o, Mira Murati, jefa tecnológica de la startup, explicó que el nuevo modelo estará disponible para todos los usuarios de ChatGPT. Esto significa que el chatbot no solo implementará esta tecnología en las versiones de pago, sino también en su variante gratuita.

Uno de los grandes beneficios de GPT-4o es que realiza el procesamiento de audio e imágenes de forma nativa. Esto ha permitido que la compañía realice varias demostraciones en directo, incluyendo algunas con prompts proporcionados por seguidores de X (Twitter).


La "o" de GPT-4o es de omni del latín omnis (todo), un nombre que no ha sido elegido al azar. Este nuevo modelo busca avanzar en la interacción entre la máquina y el humano, aceptando como entrada cualquier combinación de texto, audio e imagen, y generando como salida cualquier combinación de texto, audio e imagen. Todo ello con una interacción muy natural. OpenAI dice que el tiempo de respuesta medio de GPT-4o es de 320 milisegundos (el del cerebro humano es de 200 milisegundos), iguala el rendimiento de GPT-4 Turbo en texto en inglés y código, mejora en texto en varios idiomas que no sean el inglés, y es más rápido.

"GPT-4o es especialmente mejor en visión y comprensión de audio en comparación con los modelos existentes", dicen OpenAI. Esto se debe a que GPT-4o es un único modelo para texto visión y audio, así que todas las entradas y salidas están procesadas por la misma red neuronal. El objetivo es que la conversación entre el usuario y el modelo sea mucho más natural independientemente del tipo de datos (imagen, voz o sonido) de entrada o de salida. "Debido a que GPT-4o es nuestro primer modelo que lo combina todo, aún estamos en una fase de exploración para entender lo que puede hacer y sus limitaciones", añade la compañía.

OpenAI ya ha empezado a desplegar GPT-4o para los suscriptores de ChatGPT Plus y Team, y pronto estará disponible para los Enterprise. Los usuarios que usan ChatGPT de forma gratuita también tienen acceso a GPT-4o, pero con un límite de mensajes.

Tras la presentación, OpenAI ha subido una generosa colección de vídeos donde se puede ver en acción a GPT-4o. En estas demostraciones se observan algunas de las capacidades más notables del nuevo modelo, incluyendo su habilidad para entender el entorno en tiempo real. Por ejemplo, un usuario ciego que se encuentra en el palacio de Buckingham de Londres le pregunta si el rey está, y el modelo responde afirmativamente debido a que ve izada la bandera con el Estandarte Real en lugar de la Union Jack. GPT-4o también ofrece a este usuario la descripción de un parque y le ayuda a detener un taxi. Todo en tiempo real.

En otros vídeos podemos ver a una versión sarcástica de GPT-4o o su capacidad para traducir en tiempo real conversaciones del inglés al español y viceversa. En otro vídeo hay dos GPT-4o que interactúan entre ellos: una IA ve el mundo, se lo describe a la otra y después se animan a explorar más el entorno. Por último, resaltamos un ejercicio donde el modelo enseña matemáticas.
 

En otra tabla, Fedus reveló que GPT-4o logró superar a GPT-4 Turbo por 100 puntos en las calificaciones ELO dedicadas a prompts difíciles para labores de programación. Allí, la nueva IA logró un puntaje de 1.369, contra 1.269 de su predecesor. "Este no solo es el mejor modelo [de lenguaje] del mundo, sino que está disponible de forma gratuita en ChatGPT, lo que nunca antes había sido el caso para una inteligencia artificial de vanguardia", agregó.

 

GPT-4o trae consigo novedades muy importantes, tal y como anunció OpenAI este lunes. Este modelo presume de "inteligencia al nivel de GPT-4", pero con mucha más velocidad y mejores capacidades para lidiar con texto, audio e imágenes como métodos de entrada. La nueva IA puede procesar la voz y las fotos o vídeos de forma nativa, ofreciendo respuestas más veloces y precisas.





 

Según explicaron sus desarrolladores, GPT-4o tiene una latencia mínima de 232 milisegundos al responder usando el Modo Voz (Voice Mode). Esto es una mejora crucial en comparación con GPT-4, que tenía una demora promedio de 5,4 segundos en ChatGPT. Durante la presentación de la tecnología se realizaron varias demostraciones en tiempo real. El chatbot fue capaz de resolver ecuaciones y detectar emociones a través de la cámara de un móvil. Y también pudo interpretar código y ofrecer un resumen en voz alta del mismo.

 

GPT-4o llegará a todas las versiones de ChatGPT, incluyendo la de acceso gratuito. En principio, sus funciones estarán limitadas y se expandirá el acceso a todas sus características de forma gradual.

 

Fuentes:

https://www.elotrolado.net/noticias/tecnologia/open-ai-chatgpt-4o 

https://hipertextual.com/2024/05/openai-anuncia-gpt-4o-su-ia-mas-potente-hasta-la-fecha


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.