Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Nuevo sofisticado ataque permite robar modelos de IA completos desde lejos usando emisiones de hardware


Investigadores descubren un ataque de canal lateral que roba modelos de IA completos mediante emisiones electromagnéticas del hardware, logrando hasta un 97,6% de precisión a distancia.



Un sofisticado ataque de canal lateral permite robar modelos de IA completos a distancia captando emisiones electromagnéticas del hardware, alcanzando hasta un 97,6 % de precisión.

Un nuevo tipo de ataque ha puesto en alerta al mundo de la inteligencia artificial. Hasta ahora, los modelos de IA se consideraban cajas negras difíciles de replicar, pero investigadores han demostrado que es posible reconstruir un modelo completo sin acceder directamente al sistema, aprovechando únicamente las emisiones físicas que generan durante su funcionamiento.

El método, denominado ModelSpy, es un tipo de técnica conocida como ataque de canal lateral. En lugar de buscar vulnerabilidades de software o red, este enfoque captura señales electromagnéticas emitidas por los componentes de la GPU mientras procesan cargas de trabajo de IA. Estas señales contienen patrones que reflejan la estructura interna del modelo.

Para realizar el ataque, los investigadores utilizaron una antena de pequeño tamaño, que se puede ocultar en una mochila. Con este dispositivo lograron captar emisiones a varios metros de distancia, incluso a través de paredes.

Mediante el análisis de estos datos, pudieron inferir detalles clave de la arquitectura del modelo, incluyendo la disposición de capas y ciertos parámetros. Los resultados son impresionantes: el sistema alcanza una precisión de hasta el 97,6 % al identificar las estructuras internas de los modelos de IA.

Esto significa que, en ciertos escenarios, un atacante podría replicar tecnología propietaria sin necesidad de hackear servidores ni acceder físicamente a los equipos. Este hallazgo podría cambiar las reglas del juego, ya que hasta ahora la seguridad de los sistemas de IA se centraba principalmente en software y redes.

El ataque demuestra que los efectos secundarios del hardware pueden convertirse en una fuente de fuga de información, representando un riesgo importante para las empresas tecnológicas, cuyos modelos de IA constituyen una parte crítica de su propiedad intelectual. Incluso sistemas aislados podrían dejar de ser seguros si sus emisiones no se controlan.

Como posibles contramedidas, los investigadores proponen introducir ruido electromagnético o modificar los patrones de cálculo para dificultar la interpretación de las señales.

Este estudio deja claro que la seguridad de la inteligencia artificial ya no depende solo del software, sino también de lo que revelan inadvertidamente los propios sistemas físicos.



Fuentes:
https://computerhoy.20minutos.es/ciberseguridad/nuevo-ataque-sofisticado-permite-robar-modelos-ia-completos-desde-lejos-usando-emisiones-hardware_6953787_0.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.