Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Claude aprende solo mediante sueños de IA


Anthropic ha actualizado sus agentes de IA (Claude) permitiendo que sean capaces de «soñar» para aprender de forma autónoma a través de Managed Agents.



Claude, la IA de Anthropic, ahora puede «soñar» para mejorar su aprendizaje

La compañía Anthropic ha presentado una actualización disruptiva en sus agentes de inteligencia artificial. A través de su infraestructura de Managed Agents, han implementado funciones que permiten a los sistemas ejecutar tareas de manera autónoma.

La novedad más sorprendente es la capacidad de «soñar», un proceso mediante el cual la IA puede aprender y optimizar sus capacidades por sí misma, transformando la manera en que estos modelos adquieren nuevos conocimientos.



Robot agente de IA

Anthropic acaba de anunciar una actualización para sus agentes de IA que cambia la forma en que los sistemas aprenden. La empresa detrás de Claude reveló varias funciones a Managed Agents, su infraestructura para ejecutar agentes de forma autónoma. La más llamativa tiene un nombre que no esperarías en el contexto de la inteligencia artificial: soñar.

Según Anthropic, la función "Dreaming" es exactamente lo que sugiere su nombre. Durante los periodos en que el agente no está procesando tareas, el sistema revisa las sesiones recientes, identifica patrones en lo que hizo bien y en lo que falló, y actualiza su memoria con esas observaciones. Este proceso es programado y se lleva a cabo mientras la IA no está activa.

La compañía basa su nuevo sistema en lo que experimentan los seres humanos cada noche. Igual que el cerebro consolida recuerdos y refuerza conexiones mientras dormimos, el agente reorganiza lo que ha aprendido entre sesiones. Los creadores de Claude afirman que la combinación de memoria y sueño permite que los agentes mejoren solos con el tiempo.

Dreaming, la nueva función de "sueño" para los agentes de IA de Anthropic.

De acuerdo con una publicación en su web, Anthropic menciona que el enfoque del sueño resuelve un problema habitual. Cuando un agente individual trabaja en una sola tarea, difícilmente puede detectar patrones que se repiten a lo largo de muchas sesiones diferentes. "Dreaming" puede encontrar errores recurrentes o flujos de trabajo que el agente tiende a repetir, incluso cuando distintos agentes de un mismo equipo comparten preferencias o metodologías similares.

En cuanto al control que tienes sobre el proceso, puedes elegir entre dejar que todo funcione de forma automática o revisar los cambios antes de que se escriban en la memoria del agente. De momento, "Dreaming" está disponible en fase de investigación para los desarrolladores que soliciten acceso en la plataforma de Claude.

Anthropic apuesta por IAs que sueñan, se califican unas a otras y se dividen el trabajo

Junto con la función de sueño, Anthropic ha lanzado dos características que también apuntan a hacer los agentes más autónomos y confiables. La primera se llama "Outcomes" y se basa en el concepto de que el agente trabaja mejor cuando sabe que lo está haciendo bien.

Con esta función puedes definir una rúbrica de éxito para una tarea concreta, y un agente evaluador independiente, compara el resultado obtenido contra esos criterios. Si algo no encaja, el evaluador señala qué falla y el agente hace otra pasada. El proceso se repite hasta que el resultado cumple el estándar definido, sin que ninguna persona tenga que revisar cada intento.

Anthropic indica que "Outcomes" es especialmente útil en tareas que exigen atención al detalle o coberturas exhaustivas. Según sus pruebas internas, la función mejoró el éxito en tareas hasta en un 10% con respecto a los prompts convencionales.

Por último, la plataforma recibirá una característica de orquestación multiagente. Esta se aplica en los casos donde una tarea es demasiado compleja y extensa como para dejársela a un único agente. Cuando esto ocurre, un agente principal puede dividirla en partes y asignársela a agentes especializados que trabajan en paralelo.

Cada uno tiene su propio modelo, instrucciones y herramientas. El agente principal mantiene el control general y puede consultar el estado de los demás durante el proceso. Todo queda registrado en la consola de Claude, donde puedes ver exactamente qué hizo cada agente, en qué orden y por qué.

A diferencia de Dreaming, las funciones de Outcomes y orquestación multiagente ya se encuentran disponibles en beta pública en la plataforma Managed Agents de Anthropic.


Fuentes:
https://hipertextual.com/inteligencia-artificial/agentes-ia-anthropic-dreaming/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.