Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
2228
)
-
▼
marzo
(Total:
736
)
-
Cadena de exploits DarkSword que puede hackear mil...
-
Microsoft detalla nuevas protecciones de seguridad...
-
Grupos APT atacan servidores RDP para desplegar ca...
-
En USA pagan por llevar cámaras y sensores mientra...
-
Google también quiere estar (más) en tu coche
-
CHUWI admite el uso de procesadores falsificados p...
-
Jensen Huang, CEO de Nvidia, afirma que ya se ha a...
-
China está utilizando un láser en órbita que envía...
-
La IA de Google ahora compone canciones completas
-
Ultimate Performance: cómo desbloquear el modo de ...
-
Incautan el foro LeakBase utilizado para intercamb...
-
Botnets basados en Mirai evolucionan a gran amenaz...
-
El secreto de Windows 95 que salvaba tu ordenador ...
-
Intel lanza nuevos drivers de WiFi y Bluetooth par...
-
Esta empresa te paga 700 euros por hablar con una ...
-
Señuelos de empleo en Google Forms distribuyen Pur...
-
Adiós a los códigos de barras, los grandes superme...
-
Actores de amenazas atacan servidores MS-SQL para ...
-
Explotan Magento para ejecutar código remoto y acc...
-
Múltiples vulnerabilidades en TP-Link Archer permi...
-
Hace 15 años Suecia sustituyó los libros de texto ...
-
Starlink lleva velocidades de fibra al cielo
-
El escándalo de contrabando de aceleradores de IA ...
-
Firefox 149.0 lanzado con VPN gratuita integrada d...
-
Node.js corrige múltiples vulnerabilidades que per...
-
Cientos de usuarios de frigoríficos premium de Sam...
-
Así es el búnker más seguro del mundo desde la Gue...
-
Intel Core Ultra 9 285K gratis al comprar 64 GB de...
-
PS5 y PS5 Pro más caras: subida de precio inminente
-
Intel lanza oficialmente los chips Xeon 600 y anun...
-
Pruebas de DirectStorage con descompresión por GPU...
-
Microsoft y NVIDIA se asocian para usar la IA para...
-
Así es como la IA facilita los ciberataques y prot...
-
Campaña «OpenClaw Trap» asistida por IA usa reposi...
-
China tiene nuevos sistemas láser antidrones capac...
-
Vulnerabilidad en F5 NGINX Plus y código abierto p...
-
Ransomware The Gentlemen activo en América Latina
-
Venden SSD Samsung 990 PRO falsos con diseño y ren...
-
Ransomware Interlock explota Zero-Day crítico en C...
-
Tras cerrar Sora, OpenAI ahora cancela el desarrol...
-
Familia agrícola de Kentucky rechaza oferta de 26 ...
-
Spotify explora el ADN de tus canciones favoritas
-
Amazon quiere volver a los móviles y esta vez apue...
-
La inteligencia artificial llega al kernel de Linux
-
AtlasOS, el Windows ligero que buscan los jugadores
-
LG lanza la primera pantalla LCD comercial para po...
-
WhatsApp quiere llevar sus mensajes temporales par...
-
Modificaciones del MacBook Neo incluyen cobre y re...
-
Comienza un programa de Renta Básica Universal don...
-
El Tribunal Supremo de EE.UU. dictamina que los IS...
-
Un juez de EE.UU. tacha de "orwelliano" el riesgo ...
-
Por qué Intel no ha lanzado un Core Ultra 9 290K Plus
-
Filtración de datos en HackerOne: roban informació...
-
El mercado de tarjetas gráficas está roto: en 2 se...
-
La inteligencia artificial llega a Flipper Zero
-
ASUS prepara la mayor subida de precio de su histo...
-
ASRock ya no sabe qué hacer: otros tres Ryzen 7 98...
-
Google encuentra una forma de reducir el uso de me...
-
Una IA diseña por sí misma un inquietante robot in...
-
Sitio de filtración de datos vinculado a corredor ...
-
EL CEO de NVIDIA defiende DLSS 5: «A mí tampoco me...
-
OpenAI mata Sora, su app para crear videos con IA
-
La conferencia de desarrolladores WWDC 2026 de App...
-
Falsas invitaciones a ChatGPT o Gemini
-
Amazon trabaja en un smartphone centrado en inteli...
-
La CNMC de España pretende obligar a Movistar, Vod...
-
Kali Linux 2026.con 8 nuevas herramientas de hacking
-
E gaming en PC superará en ingresos a las consolas...
-
Así es la biblioteca de ChatGPT, que permite guard...
-
Imágenes falsas atraen a personal de soporte Web3 ...
-
Anthropic revoluciona Claude: la IA ahora puede co...
-
El NIST publica una guía rápida sobre cibersegurid...
-
Google afirma que los agentes de IA Gemini rastrea...
-
Fallos en IP-KVM de 30$ podrían dar a atacantes co...
-
El Parlamento Europeo aprueba prohibir las aplicac...
-
El MacBook Neo cuesta más en Portugal por un canon...
-
El metaverso de Fortnite y la IA de Sora prometían...
-
Orange lanza su nueva fibra con 5 Gbps, es la mita...
-
Desmantela botnets de IoT con capacidad para 3 mil...
-
Los expertos lo confirman: la IA no destruye emple...
-
La herramienta de optimización binaria de Intel pr...
-
Microsoft pone a dieta a Windows 11: menos consumo...
-
Google añade un periodo de espera de 24 horas para...
-
Tu próximo coche necesitará mucha más memoria RAM ...
-
El malware CanisterWorm borra máquinas iraníes sin...
-
Vulnerabilidades críticas en NetScaler ADC y Gatew...
-
Actualizaciones de seguridad de Roundcube corrigen...
-
Meta inicia una oleada de despidos que afecta a ci...
-
Meta y YouTube son declaradas negligentes por caus...
-
Hoja de ruta de CPU y GPU empresariales de AMD: Ve...
-
El rifle láser que ciega a los drones sin necesida...
-
Perplexity Health: así es el asistente médico que ...
-
Fuga de datos de Mazda expone registros de emplead...
-
Más de 511.000 instancias obsoletas de Microsoft I...
-
Anbernic lanza las consolas portátiles RG Vita a p...
-
Una GPU NVIDIA RTX 4060 sobrevive al incendio de u...
-
Un coche autónomo de Waymo deja encerrados a sus p...
-
Doom desde registros DNS
-
Tras varias oleadas de despidos, OpenAI refuerza s...
-
Micron anticipa el próximo boom tras la IA: robots...
-
-
▼
marzo
(Total:
736
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Un interruptor de hombre muerto es una función de seguridad que borra datos del móvil si no se desactiva en 24 horas , ideal para proteger ...
-
Un peligroso exploit llamado DarkSword se ha filtrado en GitHub , poniendo en riesgo millones de iPhones y iPads . Expertos recomiendan ac...
-
El artículo destaca distros de Linux poco convencionales que, aunque no son tan conocidas como Linux Mint o Zorin OS , ofrecen funcionalida...
Microsoft detalla nuevas protecciones de seguridad para modelos de IA generativa en Azure AI Foundry
El rápido auge de la inteligencia artificial generativa ha traído consigo nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse ignorar. Microsoft ha presentado ahora un marco detallado de salvaguardias de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una creciente amenaza que se sitúa en la intersección del suministro de software
El rápido auge de la IA generativa ha traído consigo nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse ignorar.
Microsoft ha presentado ahora un marco detallado de salvaguardas de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una amenaza creciente que se sitúa en la intersección entre el riesgo de la cadena de suministro de software y la inteligencia artificial.
El ritmo del desarrollo de la IA ha hecho que este tipo de pensamiento de seguridad estructurado y proactivo sea más necesario que nunca.
A medida que nuevos modelos de IA inundan el mercado cada semana, la superficie de ataque para los actores maliciosos se ha expandido de formas que no se anticiparon por completo hace solo unos años.
Los ciberdelincuentes han comenzado a explorar formas de incrustar código malicioso directamente dentro de los modelos de IA, convirtiéndolos en posibles plataformas de lanzamiento para la distribución de malware en entornos empresariales.
El riesgo refleja de cerca lo que las organizaciones ya enfrentan con el software de código abierto o de terceros: un modelo comprometido podría introducir silenciosamente código dañino en un entorno de producción mucho antes de que alguien dentro de la organización se dé cuenta de lo ocurrido.
Investigadores y analistas de Microsoft identificaron que los modelos de IA, en esencia, son aplicaciones de software que se ejecutan dentro de Azure Virtual Machines y se acceden a través de APIs.
Esto significa que no tienen ninguna capacidad única para escapar del aislamiento por sí mismos, y están sujetos a los mismos controles de seguridad que Azure siempre ha aplicado a las cargas de trabajo que se ejecutan en su entorno.
La plataforma opera bajo una arquitectura de confianza cero, lo que implica que ningún software que se ejecute en Azure es confiable por defecto, independientemente de su origen o proveedor.
Más allá de esta base arquitectónica, Microsoft señaló que los datos de los clientes nunca se utilizan para entrenar modelos de IA compartidos, y los registros o contenidos nunca se comparten con proveedores externos de modelos.
Tanto Azure AI Foundry como Azure OpenAI Service se ejecutan completamente en los servidores propios de Microsoft, sin conexiones en tiempo real con los creadores originales de los modelos durante su funcionamiento.
Cualquier modelo ajustado con datos de clientes permanece exclusivamente dentro del inquilino del cliente y no abandona ese límite de seguridad bajo ninguna circunstancia.
La amplitud de las salvaguardas va mucho más allá de los controles básicos de alojamiento, con un proceso de escaneo estructurado y dedicado aplicado a modelos de alta visibilidad antes de que estén disponibles públicamente en la plataforma.
Escaneo de modelos: abordando amenazas integradas
Cuando un modelo alcanza el umbral de alta visibilidad, Microsoft lo somete a un proceso de escaneo previo al lanzamiento en múltiples etapas. El análisis de malware es el primero, examinando los modelos de IA en busca de código malicioso incrustado que pueda servir como vector de infección y proporcionar un punto de apoyo para una mayor compromisión dentro de un entorno objetivo.
Junto a esto, la evaluación de vulnerabilidades revisa cada modelo en busca de CVE conocidos y vulnerabilidades de día cero que apunten específicamente a sistemas de IA.
La detección de puertas traseras es otra capa crítica en este proceso, probando la funcionalidad del modelo en busca de señales de manipulación en la cadena de suministro, llamadas de red no autorizadas o rastros de ejecución de código arbitrario incrustados en el comportamiento del modelo.
Las comprobaciones de integridad del modelo analizan luego capas, componentes y tensores individuales para detectar cualquier evidencia de corrupción o modificación no autorizada antes de que el modelo llegue al entorno de un cliente.
Para modelos especialmente escrutados como DeepSeek R1, Microsoft va más allá desplegando equipos de expertos en seguridad para examinar directamente el código fuente y realizar ejercicios de equipo rojo diseñados para poner a prueba el sistema contra tácticas adversariales.
Los modelos que completan el proceso de escaneo llevan un indicador visible en su tarjeta de modelo, lo que significa que no se requiere ninguna acción adicional por parte del cliente para beneficiarse de esta capa de protección.
Las organizaciones que despliegan modelos de IA a través de Azure AI Foundry siempre deben verificar que la tarjeta del modelo muestre el indicador de escaneo completado antes de integrar cualquier modelo en flujos de trabajo de producción.
Los equipos de seguridad deben aplicar controles de gobernanza adaptados al comportamiento específico y al perfil de riesgo de cada modelo.
La confianza en los modelos de IA de terceros no debe basarse únicamente en las garantías de un solo proveedor: las evaluaciones internas de riesgos siguen siendo esenciales, especialmente para modelos procedentes de proveedores con limitada responsabilidad pública.
Los principios de confianza cero también deben extenderse a todas las canalizaciones integradas con IA, asegurando que ningún modelo o punto final de API sea tratado como inherentemente seguro sin una verificación adecuada y continua.
Fuentes:
https://cybersecuritynews.com/microsoft-details-new-security-safeguards-for-generative-ai/

Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.