Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon EE.UU. usó supuestamente a Claude en ataques a Irán pese a veto de Trump


El Departamento de Defensa de EE.UU. desplegó la IA Claude de Anthropic durante la Operación Furia Épica, una ofensiva conjunta con Israel contra Irán el 28 de febrero, solo horas después de que el presidente Trump designara a Anthropic como un "riesgo para la cadena de suministro de seguridad nacional" y ordenara a todas las agencias federales que dejaran de usar sus sistemas de IA.




  • El Departamento de Defensa de EE.UU. desplegó la IA Claude de Anthropic durante la Operación Epic Fury, una ofensiva conjunta con Israel contra Irán el 28 de febrero, solo horas después de que el presidente Trump designara a Anthropic como un riesgo para la cadena de suministro de seguridad nacional y ordenara a todas las agencias federales que dejaran de usar sus sistemas de IA.

El 28 de febrero de 2026, las fuerzas estadounidenses e israelíes lanzaron una campaña de ataques coordinados bajo el nombre en clave Operación Epic Fury/León Rugiente contra instalaciones clave del gobierno iraní, incluyendo instalaciones nucleares e infraestructura militar estratégica.

Según informes de The Wall Street Journal, Axios y Reuters, el Comando Central de EE.UU. utilizó el modelo de IA Claude de Anthropic durante la operación para evaluaciones de inteligencia, identificación de objetivos y simulaciones de campo de batalla.

La revelación es significativa dado que los ataques se ejecutaron apenas horas después de que la administración Trump declarara formalmente a Anthropic un riesgo para la cadena de suministro, una designación de nivel de seguridad nacional que pretendía cortar de inmediato el acceso de la empresa a contratos de defensa.

Funcionarios de defensa reconocieron que una retirada técnica completa de Claude era operativamente inviable con tan poco tiempo de antelación, ya que Claude sigue siendo el único sistema de IA actualmente integrado en ciertas redes clasificadas del gobierno de EE.UU.

El ejército de EE.UU. supuestamente usó Claude

El conflicto entre Anthropic y el Pentágono se intensificó tras la operación de enero de 2026 que llevó a la captura del presidente venezolano Nicolás Maduro, una misión en la que también se desplegó Claude, según Axios. Esa revelación encendió el enfrentamiento entre el desarrollador de IA y el liderazgo de defensa de EE.UU.

El núcleo de la disputa se centra en la política de uso aceptable de Anthropic, que incluye prohibiciones estrictas contra el uso de Claude para:

  • Sistemas de armas autónomas
  • Vigilancia masiva de ciudadanos estadounidenses

Funcionarios del Pentágono presionaron para obtener un uso sin restricciones del modelo, argumentando que las realidades operativas no podían verse limitadas por las políticas éticas comerciales de un contratista.

El jueves 26 de febrero, el CEO de Anthropic, Dario Amodei, reiteró públicamente la negativa de la empresa a levantar estas restricciones, lo que desencadenó una creciente presión por parte del Departamento de Defensa.

El viernes 27 de febrero, el secretario de Defensa Peter Hegseth anunció que Anthropic sería designada como un riesgo para la cadena de suministro, pero añadió que la empresa tendría hasta seis meses para permitir una “transición fluida”, reconociendo efectivamente la profunda integración de Claude en la infraestructura clasificada del Pentágono.

Aproximadamente cuatro horas y media después del anuncio del Pentágono, el CEO de OpenAI, Sam Altman, publicó en X que su empresa había alcanzado un acuerdo con el Departamento de Guerra para desplegar sus modelos de IA dentro de redes militares clasificadas.

Altman señaló que el Pentágono demostró “profundo respeto por la seguridad” durante las negociaciones, aceptando términos que prohíben el uso de los modelos de OpenAI para vigilancia masiva doméstica y sistemas de armas autónomas, casi idénticos a los que Anthropic había buscado.

Altman anunció además que OpenAI colocaría ingenieros de seguridad dedicados dentro del Pentágono para monitorear el comportamiento de los modelos, e instó al Departamento de Guerra a extender términos equivalentes a todos los proveedores de IA que operan en entornos de defensa.

Anthropic ha prometido públicamente impugnar la designación de “riesgo para la cadena de suministro” en los tribunales, argumentando que sus salvaguardas éticas no son restricciones discrecionales, sino compromisos de seguridad fundamentales requeridos antes de desplegar IA de vanguardia en contextos militares de alto riesgo.

La postura de la empresa refleja una tensión más amplia en la industria de la IA, donde los desarrolladores buscan mantener barreras de uso, pero los clientes gubernamentales exigen libertad operativa sin restricciones.

Defense One informó que reemplazar a Claude de Anthropic dentro de la infraestructura del Pentágono podría tomar entre tres y seis meses, dada su profunda integración en sistemas clasificados, un plazo que garantiza efectivamente su uso continuo durante gran parte de mediados de 2026.

La Operación Epic Fury podría marcar el primer caso confirmado públicamente en el que se produjo un blanco militar asistido por IA en desafío directo a una prohibición ejecutiva activa, sentando un precedente crítico sobre cómo se intersectarán la ética de la IA, la adquisición de defensa y la política de seguridad nacional en una era de guerra habilitada por IA.


Fuentes:
https://cybersecuritynews.com/us-military-reportedly-used-claude/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.