Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Los borradores filtrados de Anthropic revelan el potente nuevo modelo de IA "Claude Mythos"


Anthropic ha expuesto inadvertidamente documentos internos altamente sensibles, revelando la existencia de un potente modelo de IA no lanzado denominado “Claude Mythos”. La filtración, originada en una caché de datos no segura y públicamente accesible, ha generado una alerta inmediata en la comunidad de ciberseguridad, especialmente debido a evaluaciones internas que indican que el nuevo modelo presenta riesgos sin precedentes en este ámbito.


Claude Mythos

Los materiales expuestos incluían un borrador de publicación en el blog que nombraba al próximo modelo como “Claude Mythos” y lo describía como un “cambio radical” en las capacidades de la IA. Un portavoz de Anthropic confirmó la existencia del modelo tras la exposición, calificándolo como “el más capaz que hemos construido hasta la fecha” y señalando que actualmente está siendo probado por “clientes con acceso anticipado”

 La filtración también reveló detalles sobre un evento exclusivo para directores ejecutivos, agravando el riesgo reputacional más allá de la propia divulgación del modelo. Lo que hace que este incidente sea especialmente notable desde el punto de vista de la seguridad no es solo la exposición de información propietaria del producto, sino también lo que los documentos filtrados decían sobre el modelo en sí. 

 El borrador del blog indicaba que Anthropic cree que Claude Mythos plantea riesgos cibernéticos sin precedentes, una admisión significativa por parte de una empresa que se ha posicionado consistentemente como un desarrollador de IA con enfoque en la seguridad. Esta revelación coloca a Anthropic en una posición difícil: la compañía realiza voluntariamente evaluaciones de seguridad previas al despliegue, incluyendo análisis del potencial del modelo para asistir en ciberataques o el desarrollo de armas de destrucción masiva. Si los documentos internos ya señalaban a Mythos como un riesgo elevado en ciberseguridad, la filtración no controlada de esa información —antes de cualquier divulgación coordinada o estrategia de mitigación— socava el propio marco de seguridad que Anthropic promueve. Desde un punto de vista técnico, la causa raíz parece sencilla pero evitable: datos internos sensibles se almacenaron en una ubicación sin controles de acceso adecuados, haciéndolos públicamente accesibles. 

Este tipo de configuración incorrecta, común en cubetas S3 de AWS expuestas, contenedores de Azure Blob Storage o infraestructuras similares en la nube, es una clase de vulnerabilidad bien documentada y prevenible. Para una organización que desarrolla modelos de IA de vanguardia con implicaciones significativas en la seguridad nacional, el fallo al aplicar políticas básicas de clasificación de datos y control de acceso a materiales previos al lanzamiento representa una grave brecha en la seguridad operativa. La exposición de comunicaciones internas, hojas de ruta de productos y evaluaciones de riesgos en una sola caché no segura sugiere posibles debilidades en las prácticas de gobernanza de datos de Anthropic. 

 La filtración de Anthropic llega en un momento crítico. Las empresas de IA están bajo una presión creciente por parte de reguladores, gobiernos e investigadores de seguridad para demostrar prácticas responsables no solo en cómo se comportan sus modelos, sino también en cómo gestionan los datos operativos sensibles que los rodean. 

 Una exposición de datos no intencionada de esta magnitud, que involucra un modelo que la propia compañía señala como un riesgo cibernético, probablemente intensificará los llamados a auditorías de seguridad obligatorias para los desarrolladores de IA. 

 Anthropic aún no ha revelado si los datos expuestos fueron accedidos por partes no autorizadas más allá de los periodistas de Fortune, ni ha confirmado qué medidas de remediación se han tomado tras el incidente. 

Fuentes:
https://cybersecuritynews.com/anthropic-claude-mythos/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.