Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Microsoft detalla nuevas protecciones de seguridad para modelos de IA generativa en Azure AI Foundry


El rápido auge de la inteligencia artificial generativa ha traído consigo nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse ignorar. Microsoft ha presentado ahora un marco detallado de salvaguardias de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una creciente amenaza que se sitúa en la intersección del suministro de software 




El rápido auge de la IA generativa ha traído consigo nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse ignorar.

Microsoft ha presentado ahora un marco detallado de salvaguardas de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una amenaza creciente que se sitúa en la intersección entre el riesgo de la cadena de suministro de software y la inteligencia artificial.

El ritmo del desarrollo de la IA ha hecho que este tipo de pensamiento de seguridad estructurado y proactivo sea más necesario que nunca.

A medida que nuevos modelos de IA inundan el mercado cada semana, la superficie de ataque para los actores maliciosos se ha expandido de formas que no se anticiparon por completo hace solo unos años.

Los ciberdelincuentes han comenzado a explorar formas de incrustar código malicioso directamente dentro de los modelos de IA, convirtiéndolos en posibles plataformas de lanzamiento para la distribución de malware en entornos empresariales.

El riesgo refleja de cerca lo que las organizaciones ya enfrentan con el software de código abierto o de terceros: un modelo comprometido podría introducir silenciosamente código dañino en un entorno de producción mucho antes de que alguien dentro de la organización se dé cuenta de lo ocurrido.

Investigadores y analistas de Microsoft identificaron que los modelos de IA, en esencia, son aplicaciones de software que se ejecutan dentro de Azure Virtual Machines y se acceden a través de APIs.

Esto significa que no tienen ninguna capacidad única para escapar del aislamiento por sí mismos, y están sujetos a los mismos controles de seguridad que Azure siempre ha aplicado a las cargas de trabajo que se ejecutan en su entorno.

La plataforma opera bajo una arquitectura de confianza cero, lo que implica que ningún software que se ejecute en Azure es confiable por defecto, independientemente de su origen o proveedor.

Más allá de esta base arquitectónica, Microsoft señaló que los datos de los clientes nunca se utilizan para entrenar modelos de IA compartidos, y los registros o contenidos nunca se comparten con proveedores externos de modelos.

Tanto Azure AI Foundry como Azure OpenAI Service se ejecutan completamente en los servidores propios de Microsoft, sin conexiones en tiempo real con los creadores originales de los modelos durante su funcionamiento.

Cualquier modelo ajustado con datos de clientes permanece exclusivamente dentro del inquilino del cliente y no abandona ese límite de seguridad bajo ninguna circunstancia.

La amplitud de las salvaguardas va mucho más allá de los controles básicos de alojamiento, con un proceso de escaneo estructurado y dedicado aplicado a modelos de alta visibilidad antes de que estén disponibles públicamente en la plataforma.

Escaneo de modelos: abordando amenazas integradas

Cuando un modelo alcanza el umbral de alta visibilidad, Microsoft lo somete a un proceso de escaneo previo al lanzamiento en múltiples etapas. El análisis de malware es el primero, examinando los modelos de IA en busca de código malicioso incrustado que pueda servir como vector de infección y proporcionar un punto de apoyo para una mayor compromisión dentro de un entorno objetivo.

Junto a esto, la evaluación de vulnerabilidades revisa cada modelo en busca de CVE conocidos y vulnerabilidades de día cero que apunten específicamente a sistemas de IA.

La detección de puertas traseras es otra capa crítica en este proceso, probando la funcionalidad del modelo en busca de señales de manipulación en la cadena de suministro, llamadas de red no autorizadas o rastros de ejecución de código arbitrario incrustados en el comportamiento del modelo.

Las comprobaciones de integridad del modelo analizan luego capas, componentes y tensores individuales para detectar cualquier evidencia de corrupción o modificación no autorizada antes de que el modelo llegue al entorno de un cliente.

Para modelos especialmente escrutados como DeepSeek R1, Microsoft va más allá desplegando equipos de expertos en seguridad para examinar directamente el código fuente y realizar ejercicios de equipo rojo diseñados para poner a prueba el sistema contra tácticas adversariales.

Los modelos que completan el proceso de escaneo llevan un indicador visible en su tarjeta de modelo, lo que significa que no se requiere ninguna acción adicional por parte del cliente para beneficiarse de esta capa de protección.

Las organizaciones que despliegan modelos de IA a través de Azure AI Foundry siempre deben verificar que la tarjeta del modelo muestre el indicador de escaneo completado antes de integrar cualquier modelo en flujos de trabajo de producción.

Los equipos de seguridad deben aplicar controles de gobernanza adaptados al comportamiento específico y al perfil de riesgo de cada modelo.

La confianza en los modelos de IA de terceros no debe basarse únicamente en las garantías de un solo proveedor: las evaluaciones internas de riesgos siguen siendo esenciales, especialmente para modelos procedentes de proveedores con limitada responsabilidad pública.

Los principios de confianza cero también deben extenderse a todas las canalizaciones integradas con IA, asegurando que ningún modelo o punto final de API sea tratado como inherentemente seguro sin una verificación adecuada y continua.


Fuentes:
https://cybersecuritynews.com/microsoft-details-new-security-safeguards-for-generative-ai/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.