Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Anthropic demanda al Gobierno de Estados Unidos por su inclusión en la lista negra de seguridad nacional




Anthropic ha demandado al Gobierno de EE.UU. para frenar su inclusión en la lista negra de seguridad nacional del Pentágono, alegando medidas injustificadas en un caso que sigue generando controversia.






La historia entre Anthropic y Estados Unidos está lejos de completarse, y es que la compañía de IA ha terminado demandando al Gobierno. Así es, fue ayer 9 de marzo cunado Anthropic demandó al gobierno de Estados Unidos para frenar su inclusión en la lista negra de seguridad nacional impulsada por el Pentágono. Este movimiento llega después de que la Administración Trump endureciera su postura contra la compañía por negarse a retirar ciertas limitaciones de uso en su IA Claude. Esta disputa no gira solo en torno a contratos públicos, sino a una cuestión mayor: hasta qué punto el gobierno puede obligar a una empresa de IA a aceptar usos militares que esta considera inaceptables.

El detonante inmediato fue la designación formal de Anthropic como “riesgo de la cadena de suministro” el pasado 5 de marzo. Esta medida entró en vigor de forma inmediata y bloquea a contratistas del Pentágono la posibilidad de usar tecnología de Anthropic en trabajos vinculados al ejército estadounidense. Aun así, la propia empresa sostiene que el alcance legal es estrecho. En concreto, no impediría a esos mismos clientes seguir usando Claude en proyectos ajenos a contratos con el Pentágono. Anthropic también afirmó que su tecnología ya se venía usando en labores militares como análisis de inteligencia y planificación operativa. Es más, Claude se está utilizando actualmente en la guerra de Irán.

Anthropic acusa al Gobierno de Estados Unidos de coartar su libertad de expresión e incluso de una extralimitación presidencial

Anthropic demanda a Gobierno Estados Unidos por prohibir uso de su IA Claude

Si no sabes de que va la historia, Anthropic no permitió que Estados Unidos utilizara su IA Claude para crear una red de vigilancia masiva doméstica de ciudadanos estadounidenses. Tampoco permitió que se usara su IA para crear armas totalmente autónomas. Tras la negativa de Anthropic, el gobierno directamente la sacó de cualquier proyecto militar y rápidamente firmó un contrato con OpenAI (ChatGPT). Lo que deja bastante claro que OpenAI no tiene estas líneas rojas de uso de sus modelos de IA.

Anthropic indicó que los modelos actuales de IA no eran lo bastante fiables como para desarrollar armas plenamente autónomas. Mientras que, evidentemente, la vigilancia masiva de estadounidenses vulneraría derechos fundamentales. En la demanda, la compañía alega una represalia contra su libertad de expresión, extralimitación presidencial, vulneración del debido proceso y una violación de la propia ley federal Administrative Procedure Act. De esta forma, Anthropic indica que simplemente fue castigada por expresar públicamente los límites de uso de su tecnología, y que el gobierno actuó sin el procedimiento ni la base legal adecuados.

Tal y como adelantábamos, mientras ocurre esto, al lado contrario OpenAI revelaba un acuerdo con el Departamento de Guerra que permite el uso de su sistema para “todos los fines legales”, aunque añade límites: no dirigir de forma independiente armas autónomas cuando la ley o la política del DoD exijan control humano, no realizar monitorización no restringida de información privada de personas estadounidenses y no emplearlo para actividades policiales domésticas salvo donde la ley lo permita.

Hay mucho dinero y posicionamiento estratégico en juego

IA Claude Anthropic guerra Estados Unidos Iran

Anthropic advirtió ante el tribunal que la ofensiva del gobierno podría costarle varios miles de millones de dólares en ingresos durante 2026 y perjudicar gravemente su reputación. Se informa que uno de sus socios, ante esta decisión, habría abandonado el uso de Claude por una IA rival. Solo con cliente, Anthropic indica que se le han evaporado más de 100 millones de dólares. También indica que otras negociaciones se han visto alteradas.

Anthropic insiste en que sigue abierta a negociar y evitar una ruptura total. Todo ello mientras un grupo de 37 investigadores e ingenieros de OpenAI y Google presentaron un escrito de apoyo alertando del efecto desincentivador que esto podría tener sobre el debate abierto en IA. Así que será interesante conocer cómo acabará todo eso, ya que podría sentar un precedente para todo el sector.

Si el gobierno logra castigar a un proveedor por negarse a aceptar ciertos usos “legales” de su modelo de IA, otras compañías podrían verse presionadas a firmar cláusulas mucho más amplias con defensa. Si Anthropic gana, en cambio, reforzaría la idea de que los desarrolladores de IA pueden seguir fijando límites de uso incluso cuando el cliente sea el Estado. Por ahora, la Casa Blanca prepara una orden ejecutiva para retirar el uso de Anthropic en operaciones federales.


Fuentes:
https://elchapuzasinformatico.com/2026/03/anthropic-demanda-gobierno-estados-unidos-lista-negra-de-seguridad-nacional/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.