Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Estados Unidos designa a Anthropic como un riesgo: prohíbe su uso en el ejército tras su uso en la guerra de Irán


El Pentágono ha declarado a Anthropic como un riesgo para la cadena de suministro y prohibido el uso de su IA Claude en el ejército estadounidense tras su empleo en la guerra de Irán, afectando a contratistas del Departamento de Defensa.


Desde el propio Pentágono se han encargado de catalogar a la compañía de IA Anthropic como un "riesgo para la cadena de suministro" con efecto inmediato. Con esta medida, se ha prohibido el uso de su IA Claude a los contratistas del Departamento de Defensa en trabajos vinculados al ejército estadounidense. Anthropic confirmó la medida, pero sostuvo que su alcance es más estrecho de lo que parecía en los mensajes políticos previos: según la empresa, afecta al uso de Claude dentro de contratos del Pentágono, pero no a cualquier cliente privado o público que también trabaje con defensa.

El motivo de catalogar a la IA Claude como un riesgo es más un problema político, que realmente un caso de espionaje o sabotaje. En esencia, Anthropic, tras llevar meses negociando con el Pentágono, y se negó a eliminar dos líneas rojas: la primera, era convertir sus modelos de IA para usarse en la vigilancia masiva doméstica. La segunda involucra su uso en armas totalmente autónomas. La compañía afirma que apoyaba todos los usos legales de IA en seguridad nacional salvo esas dos excepciones. Tras la negativa, Estados Unidos no solo firmó un acuerdo con OpenAI (ChatGPT), sino que ahora busca dejar de utilizar Claude como castigo.

El Pentágono defiende la categoría de "riesgo" para blindarse ante un supuesto y posible sabotaje de Anthropic

Anthropic riesgo para el Pentagono Estados Unidos IA autonoma militar

La etiqueta de "riesgo para la cadena de suministro" con efecto inmediato se defiende como una medida que no es un castigo debido a los "desacuerdos éticos", sino para proteger sistemas de seguridad nacional frente a riesgos de sabotaje, introducción de funciones maliciosas o subversión por parte de un adversario. Las normas de adquisición del Departamento de Defensa de los Estados Unidos también acotan esta autoridad a compras de IT para sistemas cubiertos de seguridad nacional. Por eso Anthropic insiste en que, incluso si la designación se mantiene, su alcance legal debería ser limitado a contratos concretos del Pentágono, y ahí probablemente estará uno de los núcleos de la batalla judicial.

Curiosamente, esta medida llega pese a que Anthropic siempre ha sido una de las compañías de IA que más había estado interesada en entrar en el ámbito militar. Fue a finales de 2024 cuando llegó a un acuerdo con Palantir para distribuir su tecnología en productos de defensa. A mediados de 2025, había firmado un contrato del Pentágono de 200 millones de dólares. Tras ello, lanzó versiones personalizadas de Claude para entornos clasificados. La propia Anthropic presume de haber apoyado a los "combatientes" desde junio de 2024 en análisis de inteligencia, simulación, planificación operativa y ciberoperaciones.

La crisis de Anthropic tiene lugar cuando Estados Unidos está usando Claude en en operaciones militares. Ayer conocíamos que Claude está siendo clave en la guerra de Estados Unidos con Irán. Pero si bien Anthropic siempre había querido entrar en este negocio, dejar claro que hay límites que no se pueden rebasar y eso les ha costado rescindir este contrato.

Esto deja claro que los desarrolladores de IA no pueden poner límites si quieren entrar a este negocio

IA Claude Anthropic guerra Estados Unidos Iran

Este caso entre el Pentágono y Anthropic pone a prueba si, en el sector de defensa, los desarrolladores de IA pueden imponer límites materiales al uso de sus modelos una vez entran en la cadena militar, o si el Gobierno puede forzar una imposición de “solo manda la ley y el contrato”.

Tras los primeros rifirrafes con el gobierno estadounidense, ya se había informado de una presión por parte de los inversores y grandes tecnológicas para rebajar el conflicto. Esta ruptura también abrió una ventana de negocio para OpenAI, que se movió rápidamente para ocupar el espacio de Anthropic en entornos militares clasificados. Esto llevó a la cancelación de suscripciones por parte de los usuarios que no querían seguir pagando sabiendo que ahora los modelos de OpenAI se pondrían al servicio de la vigilancia masiva doméstica y para su uso en armas automatizadas.

La consecuencia más probable, al menos a corto plazo, es más incertidumbre para los contratistas. Además de más trabajo de migración de modelos de IA para socios como Palantir. Todo ello marcando un precedente incómodo para cualquier empresa de IA que quiera vender su modelo de IA al Pentágono sin renunciar a rebasar las líneas rojas.




Fuentes:
https://elchapuzasinformatico.com/2026/03/estados-unidos-pentagono-anthropic-riesgo-prohibe-uso-claude-ejercito/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.