Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Anthropic denuncia la extracción a escala industrial de las capacidades de Claude para entrenar modelos rivales


Anthropic denuncia campañas a escala industrial para extraer capacidades de Claude mediante destilación y usarlas en modelos rivales, calificándolo como un caso de "ladrón que roba a ladrón".



Anthropic publicó un aviso poco habitual por su nivel de detalle, y es que afirmó haber detectado campañas “a escala industrialpara extraer capacidades de Claude y reutilizarlas en el entrenamiento de modelos rivales mediante distillation (destilación). Por medio de un comunicado público en su blog, junto a varios mensajes en X, Anthropic acusó directamente a los modelos chinos DeepSeek, Moonshot AI y MiniMax como responsables de estas operaciones.

Quizás lo más gracioso de todo es la propia acusación de Anthropic, la cual se ha nutrido de todo internet, e incluso de librerías digitales ilegales para entrenar sus modelos de IA. Sin ir más lejos, a esta misma web se le roba todo el contenido de forma diaria pese a que explícitamente se haya bloqueado el acceso de los modelos de IA. Pero siguen accediendo evadiendo las protecciones por medio de Cloudflare y el uso de IPs chinas de Amazon Asia. Hablamos de scraping (copiar todo el contenido), y saltándose las reglas anti-bot en Cloudflare, bloqueo por user-agent, robots.txt, rate limits, etc.

Ladrón que roba a ladrón tiene cien años de perdón: Anthropic se queja de que se aprovechen de su trabajo para entrenar otros modelos de IA

Anthropic extraccion de datos modelo de aprendizaje IA Claude DeepSeek, Moonshot AI y MiniMax

Para empezar, de esta destilación que se queja Anthropic, por sí misma, no es mala. No es más que una técnica muy común para entrenar un modelo más pequeño a partir de las respuestas de uno más capaz. Con ello se consigue obtener versiones más baratas y rápidas. El problema llega cuando se usa para replicar capacidades de un competidor sin permiso. Esto ayuda a acelerar el progreso “en una fracción del tiempo y del coste” frente a desarrollar el modelo desde cero. Según defiende la propia Anthropic, claro.

Anthropic sostiene que tres laboratorios de IA chinos: DeepSeek, Moonshot AI y MiniMax, se aprovecharon para a extraer ilícitamente las capacidades de Claude y mejorar sus propios modelos. Estos tres laboratorios generaron más de 16 millones de intercambios con Claude utilizando alrededor de 24.000 cuentas fraudulentas. La compañía defiende que esto vulnera sus términos de servicio y restricciones regionales.

La compañía también detalla qué se intentó extraer. Estas campañas se enfocaron en capacidades “diferenciales” como razonamiento agentivo, uso de herramientas y programación. Es decir, los puntos donde un modelo frontera suele marcar la diferencia. En su desglose, Anthropic atribuye a DeepSeek más de 150.000 intercambios, a MiniMax más de 13 millones, y a Moonshot AI más de 3,4 millones.

La compañía anuncia haber mejorado su defensa para frenar la extracción de datos

Claude Code IA portando CUDA a ROCm

Anthropic asegura haber detectado un patrón de uso anómalo y sostenido de Claude. Por su volumen y forma, encajaría con intentos de extraer datos para entrenar otros modelos. Según la compañía, no se trataría de consultas aisladas. Habla de interacciones repetitivas, muy estructuradas y coordinadas, que de manera individual podrían parecer normales. Ahora bien, en conjunto, apuntan a una recolección deliberada de salidas con fines de entrenamiento.

Entre las tácticas descritas, Anthropic menciona peticiones diseñadas para forzar explicaciones paso a paso. Un material especialmente valioso si se quiere generar conjuntos de datos de “razonamiento”, y tareas de evaluación con rúbricas, en las que Claude actúa como “juez” para puntuar respuestas y alimentar ciclos de mejora tipo refuerzo.


 

La firma también pone el foco en la infraestructura: al no ofrecer acceso comercial a Claude en China, sostiene que algunos actores habrían recurrido a servicios proxy que revenden acceso a modelos de frontera y operan redes masivas de cuentas (“hydra clusters”), repartiendo el tráfico para evitar bloqueos. En un caso, afirma, un único entramado llegó a gestionar más de 20.000 cuentas fraudulentas de forma simultánea.

Anthropic indica que han mejorado la detección con un sistema de clasificadores y sistemas de huellas dactilares de comportamiento. Han elaborado un intercambio de inteligencia con otros laboratorios de IA, proveedores de servicios en la nube y autoridades competentes para eludir la destilación. Han reforzado los controles de acceso y añadido contramedidas a nivel de producto, API y modelo para "reducir la eficacia de los resultados del modelo para la destilación ilícita, sin degradar la experiencia de los clientes legítimos".



Fuentes:
https://elchapuzasinformatico.com/2026/02/anthropic-denuncia-la-extraccion-a-escala-industrial-de-las-capacidades-de-claude-para-entrenar-modelos-rivales-ladron-que-roba-a-ladron/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.