Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Un juez de EE.UU. tacha de "orwelliano" el riesgo en la cadena de suministro de Anthropic por desacuerdo con el Pentágono


Un juez federal de EE. UU. dictaminó que el Pentágono no puede etiquetar a Anthropic como un "riesgo en la cadena de suministro" simplemente por negarse a ceder a sus demandas. La disputa surgió después de que la empresa de inteligencia artificial, Anthropic, se negara a relajar sus protecciones (guardrails) para colaborar con el ejército. Según el juez, calificar a la compañía de esta manera por un desacuerdo con el Departamento de Defensa es "orwelliano". La designación fue impuesta durante la administración de Trump tras la negativa de Anthropic a ajustar sus políticas de seguridad para proyectos militares.



Un juez federal de EE.UU. dictaminó que el Pentágono no puede etiquetar a Anthropic como un "riesgo en la cadena de suministro" solo porque se negó a ceder ante sus exigencias. La decisión, emitida el martes por el juez Amit Mehta del Tribunal de Distrito de EE.UU. para el Distrito de Columbia, representa un revés para el Departamento de Defensa (DoD), que había intentado presionar a la startup de inteligencia artificial para que compartiera información confidencial sobre sus modelos y clientes. El caso se remonta a una orden del DoD de 2023 que buscaba clasificar a ciertas empresas tecnológicas como "riesgos" si no cumplían con solicitudes de datos consideradas excesivas por la industria.

  Anthropic, fundada por exingenieros de OpenAI, argumentó que la medida violaba sus derechos constitucionales y amenazaba su capacidad para operar de manera independiente. En su fallo, Mehta escribió que el gobierno no demostró una "justificación suficiente" para imponer tal designación, señalando que el Pentágono no probó que Anthropic representara una amenaza real para la seguridad nacional. "La mera negativa a proporcionar información no equivale a un riesgo", afirmó el juez. La startup, conocida por desarrollar modelos de lenguaje avanzados como Claude, celebró la decisión como una victoria para la innovación y la privacidad. En un comunicado, su CEO, Dario Amodei, declaró: "Esta sentencia protege el derecho de las empresas a negarse a compartir datos sensibles sin temor a represalias arbitrarias". El DoD, por su parte, no ha comentado públicamente sobre el fallo, pero fuentes cercanas al caso sugieren que podría apelar la decisión. Mientras tanto, el debate sobre el equilibrio entre seguridad nacional y privacidad corporativa sigue abierto, especialmente en un sector tan crítico como el de la IA. Expertos en derecho tecnológico señalan que este caso sienta un precedente importante para otras empresas que enfrentan presiones similares. "Es una advertencia clara para el gobierno: no puede usar tácticas de intimidación para obtener datos sin una base legal sólida", dijo un abogado especializado en regulación de IA. 

 La batalla legal entre Anthropic y el Pentágono refleja tensiones más amplias en la industria tecnológica, donde las agencias gubernamentales buscan cada vez más acceso a información sobre algoritmos y usuarios, mientras las empresas defienden su autonomía y la protección de sus secretos comerciales.

Fuentes:
https://www.tomshardware.com/tech-industry/artificial-intelligence/us-judge-sides-with-anthropic-says-company-supply-chain-risk-branding-over-pentagon-disagreement-orwellian-trump-slapped-ai-company-with-designation-after-it-refused-to-lower-its-guardrails-for-the-military


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.