Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Trump prohíbe la IA de Anthropic en agencias federales — el Pentágono alerta sobre riesgos de seguridad de Claude


El gobierno de EE. UU. ha tomado una medida sin precedentes contra la empresa nacional de IA Anthropic, ordenando a todas las agencias federales que detengan de inmediato el uso de su modelo de IA Claude y designando oficialmente a la compañía como un riesgo para la cadena de suministro de la seguridad nacional, una clasificación que históricamente se ha reservado para adversarios extranjeros como Huawei. 







El gobierno de EE.UU. ha tomado una acción sin precedentes contra la empresa nacional de IA Anthropic, ordenando a todas las agencias federales que detengan de inmediato el uso de su modelo de IA Claude y designando oficialmente a la compañía como un riesgo para la cadena de suministro en materia de seguridad nacional, una clasificación históricamente reservada para adversarios extranjeros como Huawei.

El enfrentamiento alcanzó un punto crítico el 28 de febrero de 2026, cuando el presidente Donald Trump anunció en Truth Social que todas las agencias federales deben “CESAR INMEDIATAMENTE todo uso de la tecnología de Anthropic”. Concedió un período de seis meses para la eliminación progresiva a departamentos como el Departamento de Guerra (DoW), que ya estaban fuertemente integrados con los productos de la empresa.

En cuestión de horas, el secretario de Defensa Pete Hegseth emitió su propia declaración en X, designando formalmente a Anthropic como un Riesgo para la Cadena de Suministro en Seguridad Nacional y anunciando que “ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos podrá realizar actividad comercial alguna con Anthropic”.

La disputa se centra en dos excepciones específicas que Anthropic solicitó para el uso legal de Claude: vigilancia masiva de ciudadanos estadounidenses y armas totalmente autónomas.

El Pentágono exigió acceso completo y sin restricciones a Claude para “todos los fines legales”, pero el CEO de Anthropic, Dario Amodei, se negó, afirmando que la empresa “no puede, en buena conciencia, acceder” a esas demandas.

 

Anthropic había sido la primera empresa de IA de vanguardia en desplegar modelos en las redes clasificadas del gobierno de EE.UU., operando bajo un contrato de 200 millones de dólares con el DoW desde junio de 2024. Durante meses, ambas partes mantuvieron negociaciones privadas que finalmente fracasaron. En un último intento, el Pentágono emitió un ultimátum a Anthropic: cumplir antes de las 5:01 PM ET del viernes o enfrentar la lista negra.

Anthropic alega que una oferta contractual del Pentágono, presentada como un compromiso, “venía acompañada de tecnicismos legales que permitirían ignorar esas salvaguardas a voluntad”.

Amodei argumentó que los modelos actuales de IA de vanguardia no son lo suficientemente fiables para sistemas de armas totalmente autónomos —una postura que, según él, protege a los soldados estadounidenses y a los civiles— y que la vigilancia masiva constituiría una violación fundamental de los derechos civiles de los estadounidenses.

Anthropic ha prometido impugnar en los tribunales cualquier designación de riesgo para la cadena de suministro, argumentando que la medida es jurídicamente insostenible bajo el 10 USC 3252, que limita el alcance de la designación estrictamente al uso en contratos del Departamento de Guerra, no a relaciones comerciales más amplias. Esto significa que los clientes individuales, usuarios de API y contratistas no vinculados al DoW no se ven afectados en absoluto por la designación.

Sin embargo, el impacto en la industria podría ser grave. Anthropic depende de la infraestructura de computación en la nube de Amazon, Microsoft y Google, todas las cuales tienen contratos de defensa.

Una interpretación estricta del lenguaje de Hegseth, que prohíbe a cualquier entidad que “haga negocios con el ejército” trabajar con Anthropic, podría amenazar teóricamente esas relaciones en la nube. Expertos legales han advertido que la designación sienta un “precedente peligroso”, señalando que diluye una herramienta históricamente reservada para entidades vinculadas a gobiernos extranjeros.

Trump advirtió a Anthropic sobre “graves consecuencias civiles y penales” si no coopera durante el período de eliminación progresiva. Anthropic ha declarado que sigue comprometida a apoyar los casos de uso de seguridad nacional legales y trabajará para garantizar una transición fluida para las tropas estadounidenses y las operaciones militares en curso.

La empresa mantiene que ninguna presión gubernamental cambiará su postura sobre las armas autónomas o la vigilancia doméstica.



Fuentes:
https://cybersecuritynews.com/trump-bans-anthropic-ai/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.