Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
2850
)
-
▼
marzo
(Total:
833
)
-
El jefe del FBI, Kash Patel, sufrió el hackeo de s...
-
Día Mundial del Backup 2026: un recordatorio de la...
-
Consigue "aterrizar" en la luna usando un ZX Spect...
-
Alguien pidió un disipador AMD y abrió la caja par...
-
Apple lo tiene claro: el iPhone seguirá vivo dentr...
-
El truco del "Cupcake" para saber cuando ChatGPT, ...
-
GitHub se suma a Google, Amazon (AWS), OpenAI y An...
-
OpenAI acaba de hacer Codex mucho más útil para lo...
-
Nvidia invierte 2.000 millones en Marvell para pro...
-
Vulnerabilidad en plugin de WordPress expone datos...
-
El kit Coruna para iOS reutiliza el código del exp...
-
La IA calienta Aragón: los centros de datos de IA ...
-
Los chatbots de IA mienten y manipulan a usuarios ...
-
Fuga de datos de CareCloud: accedieron a la infrae...
-
Euro-Office: la suite ofimática por la soberanía d...
-
¿Qué es Codex Security, la nueva IA de OpenAI que ...
-
Instagram Plus, la primera suscripción de pago de ...
-
Cable HDMI de fibra óptica de 500$ ofrece rendimie...
-
FSR 4 INT8 no era lo que parecía: ¿por qué no ha l...
-
Apple advierte a usuarios sobre ataques ClickFix e...
-
Fin de las estafas por SMS en España: la CNMC acti...
-
PS6 tendrá un SSD de 1 TB, pero no será un problem...
-
Un estudio confirma que ChatGPT, Claude y otros ch...
-
Sintetizador inspirado en NES que también funciona...
-
Por qué nunca deberías dar información sensible a ...
-
CISA advierte sobre vulnerabilidad en Citrix NetSc...
-
Microsoft impulsa las aplicaciones nativas de Wind...
-
Hackean la web oficial de la Unión Europea y roban...
-
Los borradores filtrados de Anthropic revelan el p...
-
Filtran 93 GB de datos "anónimos" de la policía
-
MSI introduce GPU Safeguard+: así evita que tu GPU...
-
Movistar y O2 permiten bloquear las llamadas de sp...
-
Microsoft gastará 146.000 millones de dólares en I...
-
China construye la escalera mecánica al aire libre...
-
AMD arregla el overclock de las RX 9000 tras 1 año...
-
700 agentes de IA fundan una religión en el juego ...
-
Paquetes NPM de Axios comprometidos para inyectar ...
-
AMD EPYC Venice Zen 6 se muestra con hasta 192 cor...
-
El código QR más pequeño mide como una bactería, y...
-
Clon SSD falso Samsung 990 Pro casi indetectable
-
Disponible Ubuntu 26.04 LTS Beta con Linux 7.0, GN...
-
Cambiar a Gemini importando datos de ChatGPT
-
Netflix sube de precio otra vez
-
Apple retira el Mac Pro tras 20 años
-
Vulnerabilidades críticas en Citrix NetScaler y Ga...
-
Tiene 91 años y se ha acabado Resident Evil Requie...
-
Condenan a Meta y a Google por diseñar productos a...
-
Trabajador norcoreano de TI usó identidad robada e...
-
CapCut lanza Seedance 2.0, la IA que puede generar...
-
Windows se bloquea 3,1 veces más que macOS
-
ASUS despliega AGESA 1.3.0.1 en toda su gama X870 ...
-
Administrador del foro LeakBase detenido en Rusia
-
Se infiltran el SDK Python de Telnyx en PyPI para ...
-
Vulnerabilidades críticas de NVIDIA permiten ataqu...
-
Vulnerabilidad de XSS almacenado en Jira Work Mana...
-
Samsung apuesta por RISC-V en SSD: así es su nuevo...
-
Huawei Ascend 950PR: simulan CUDA con CANN Next y ...
-
Desarrollador muestra un mundo enorme sin pantalla...
-
GeForce RTX 60: el doble de rendimiento en trazado...
-
Universidades chinas con investigación militar com...
-
Nueva vulnerabilidad en Windows Error Reporting pe...
-
La Wikipedia prohíbe por completo los artículos ge...
-
Meta financiará siete nuevas centrales eléctricas ...
-
ISC advierte sobre una falla crítica en Kea DHCP q...
-
Samsung Galaxy S27 Ultra: dos cambios y una constante
-
Meta despide a 700 empleados y confirma lo que muc...
-
El traductor de Kingdom Come: Deliverance 2 fue de...
-
China presenta con un enjambre de 96 drones autóno...
-
LG gram Pro 17, llega el portátil más ligero del m...
-
Vulnerabilidad crítica en Fortinet FortiClient EMS...
-
Melania Trump entrando a la Casa Blanca acompañada...
-
Demanda colectiva alega que Nvidia ocultó más de m...
-
Gran Bretaña lanza un satélite capaz de ver el int...
-
La crisis del portátil: con una caída del 40% por ...
-
Wine 11 revoluciona la forma de jugar en Linux: ej...
-
Vulnerabilidad en Synology DiskStation Manager per...
-
Una RTX 4090 falla tras 2 años y el fabricante pid...
-
El plan de un ChatGPT al estilo PornHub tiene un p...
-
Las ventas de monitores OLED se dispararon un 92% ...
-
Un misil de 30 centímetros y solo 500 gramos que p...
-
El método de Movistar para arreglar el WiFi cuando...
-
LOLExfil: exfiltración sigilosa de datos usando té...
-
Ryzen 9 9950X3D2 Dual Edition con doble memoria 3D...
-
Ni Movistar ni Vodafone, Orange es la preferida de...
-
Un nuevo estudio revela que lo más dañino del móvi...
-
El museo abre la colección más grande del mundo de...
-
NVIDIA quiere que la mitad del sueldo de sus ingen...
-
Impresora 3D de 12 boquillas presentada
-
CISA incluye fallos de Apple, Craft CMS y Laravel ...
-
Microsoft Entra ID elimina limitaciones de MFA par...
-
Consorcio de Tokio prueba instalar centros de dato...
-
Vulnerabilidad en Cisco Secure Firewall permite ej...
-
Micron, Samsung y SK Hynix se tambalean: Google en...
-
OpenAI lanza programa de recompensas por fallos de...
-
Entusiasta "aterriza" en la luna usando hardware d...
-
Atacan a usuarios de Android con falsas invitacion...
-
Intel Core 3 310 y Core 5 320, las CPU Wildcat Lak...
-
Cadena de exploits DarkSword que puede hackear mil...
-
Microsoft detalla nuevas protecciones de seguridad...
-
Grupos APT atacan servidores RDP para desplegar ca...
-
-
▼
marzo
(Total:
833
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Google y Back Market lanzan ChromeOS Flex USB , un kit para recuperar PCs antiguos y combatir la obsolescencia electrónica , facilitando s...
-
El sector tecnológico enfrenta una grave crisis en 2026 con casi 80.000 despidos en el primer trimestre , donde la IA es responsable de casi...
-
Microsoft ha publicado actualizaciones de seguridad urgentes para abordar una vulnerabilidad crítica en Windows Active Directory que permit...
Microsoft detalla nuevas protecciones de seguridad para modelos de IA generativa en Azure AI Foundry
El rápido auge de la inteligencia artificial generativa ha traído consigo nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse ignorar. Microsoft ha presentado ahora un marco detallado de salvaguardias de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una creciente amenaza que se sitúa en la intersección del suministro de software
El rápido auge de la IA generativa ha traído consigo nuevas preocupaciones de seguridad que las organizaciones ya no pueden permitirse ignorar.
Microsoft ha presentado ahora un marco detallado de salvaguardas de seguridad diseñado para proteger los modelos de IA generativa alojados en su plataforma Azure AI Foundry, abordando una amenaza creciente que se sitúa en la intersección entre el riesgo de la cadena de suministro de software y la inteligencia artificial.
El ritmo del desarrollo de la IA ha hecho que este tipo de pensamiento de seguridad estructurado y proactivo sea más necesario que nunca.
A medida que nuevos modelos de IA inundan el mercado cada semana, la superficie de ataque para los actores maliciosos se ha expandido de formas que no se anticiparon por completo hace solo unos años.
Los ciberdelincuentes han comenzado a explorar formas de incrustar código malicioso directamente dentro de los modelos de IA, convirtiéndolos en posibles plataformas de lanzamiento para la distribución de malware en entornos empresariales.
El riesgo refleja de cerca lo que las organizaciones ya enfrentan con el software de código abierto o de terceros: un modelo comprometido podría introducir silenciosamente código dañino en un entorno de producción mucho antes de que alguien dentro de la organización se dé cuenta de lo ocurrido.
Investigadores y analistas de Microsoft identificaron que los modelos de IA, en esencia, son aplicaciones de software que se ejecutan dentro de Azure Virtual Machines y se acceden a través de APIs.
Esto significa que no tienen ninguna capacidad única para escapar del aislamiento por sí mismos, y están sujetos a los mismos controles de seguridad que Azure siempre ha aplicado a las cargas de trabajo que se ejecutan en su entorno.
La plataforma opera bajo una arquitectura de confianza cero, lo que implica que ningún software que se ejecute en Azure es confiable por defecto, independientemente de su origen o proveedor.
Más allá de esta base arquitectónica, Microsoft señaló que los datos de los clientes nunca se utilizan para entrenar modelos de IA compartidos, y los registros o contenidos nunca se comparten con proveedores externos de modelos.
Tanto Azure AI Foundry como Azure OpenAI Service se ejecutan completamente en los servidores propios de Microsoft, sin conexiones en tiempo real con los creadores originales de los modelos durante su funcionamiento.
Cualquier modelo ajustado con datos de clientes permanece exclusivamente dentro del inquilino del cliente y no abandona ese límite de seguridad bajo ninguna circunstancia.
La amplitud de las salvaguardas va mucho más allá de los controles básicos de alojamiento, con un proceso de escaneo estructurado y dedicado aplicado a modelos de alta visibilidad antes de que estén disponibles públicamente en la plataforma.
Escaneo de modelos: abordando amenazas integradas
Cuando un modelo alcanza el umbral de alta visibilidad, Microsoft lo somete a un proceso de escaneo previo al lanzamiento en múltiples etapas. El análisis de malware es el primero, examinando los modelos de IA en busca de código malicioso incrustado que pueda servir como vector de infección y proporcionar un punto de apoyo para una mayor compromisión dentro de un entorno objetivo.
Junto a esto, la evaluación de vulnerabilidades revisa cada modelo en busca de CVE conocidos y vulnerabilidades de día cero que apunten específicamente a sistemas de IA.
La detección de puertas traseras es otra capa crítica en este proceso, probando la funcionalidad del modelo en busca de señales de manipulación en la cadena de suministro, llamadas de red no autorizadas o rastros de ejecución de código arbitrario incrustados en el comportamiento del modelo.
Las comprobaciones de integridad del modelo analizan luego capas, componentes y tensores individuales para detectar cualquier evidencia de corrupción o modificación no autorizada antes de que el modelo llegue al entorno de un cliente.
Para modelos especialmente escrutados como DeepSeek R1, Microsoft va más allá desplegando equipos de expertos en seguridad para examinar directamente el código fuente y realizar ejercicios de equipo rojo diseñados para poner a prueba el sistema contra tácticas adversariales.
Los modelos que completan el proceso de escaneo llevan un indicador visible en su tarjeta de modelo, lo que significa que no se requiere ninguna acción adicional por parte del cliente para beneficiarse de esta capa de protección.
Las organizaciones que despliegan modelos de IA a través de Azure AI Foundry siempre deben verificar que la tarjeta del modelo muestre el indicador de escaneo completado antes de integrar cualquier modelo en flujos de trabajo de producción.
Los equipos de seguridad deben aplicar controles de gobernanza adaptados al comportamiento específico y al perfil de riesgo de cada modelo.
La confianza en los modelos de IA de terceros no debe basarse únicamente en las garantías de un solo proveedor: las evaluaciones internas de riesgos siguen siendo esenciales, especialmente para modelos procedentes de proveedores con limitada responsabilidad pública.
Los principios de confianza cero también deben extenderse a todas las canalizaciones integradas con IA, asegurando que ningún modelo o punto final de API sea tratado como inherentemente seguro sin una verificación adecuada y continua.
Fuentes:
https://cybersecuritynews.com/microsoft-details-new-security-safeguards-for-generative-ai/


Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.