Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Buscador

Entradas Mensuales

Suscripción

¿Quieres recibir las últimas novedades del blog en tu correo?

¡Suscríbete al feed!

elhacker.NET en Facebook

Entradas populares

PostHeaderIcon Crean huellas dactilares maestras capaces de engañar sensor teléfono móvil




La huella dactilar se ha popularizado como forma de proteger toda clase de dispositivos frente a intrusiones, pero numerosos expertos advierten de que no es una buena sustituta de la contraseña. De entrada, uno puede cambiar una clave personal cuando quiera, cosa que no sucede con nuestros dedos u otros factores biométricos. Ahora se suma un nuevo problema en potencia: el uso de huellas dactilares maestras generadas por ordenador mediante ataques por diccionario.








Investigadores de las universidades de Nueva York y Michigan han publicado un documento en el que describen el método utilizado para entrenar una inteligencia artificial con el propósito de crear huellas dactilares falsas que funcionan como si fueran una llave maestra, creando coincidencias válidas en bases de datos con un gran número de huellas dactilares reales. Estas huellas han sido bautizadas por sus creadores como DeepMasterPrints.

DeepMasterPrint


En este trabajo, el equipo compuesto por investigadores de la Universidad de Nueva York (NYU) y de la Universidad Estatal de Michigan (MSU) creó imágenes de huellas maestras mediante un método que se conoce como Latent variable model y el uso de la tecnología machine learning. Estas huellas maestras, denominadas “DeepMasterPrints” presentan una efectividad del 20% y permiten recrear huellas utilizadas en sistemas de reconocimiento que pueden ser explotadas a través de un ataque similar a los “ataques de diccionario”.






Para crear una DeepMasterPrint los investigadores entrenaron una red neuronal con huellas dactilares reales procedentes de 6.000 personas distintas para generar combinaciones. Una vez creadas, una red neuronal discriminadora separa las huellas reales de las falsas. Aquellas clasificadas como fraudulentas eran devueltas al generador para retocarlas ligeramente, y así miles y miles de veces hasta lograr engañar al discriminador.


Algorithm 1 Latent Variable Evolution
fmr   1%; :1%; :01% and fingerprint   12 partial
1: G    trainGAN(data)
2: function MatchingScore(X)
3: img   G (X)
4: score   0
5: for fingerprint in data do
6: for partial in fingerprint do
7: if matching(img; partial; fmr) then
8: score + +
9: break
10: end if
11: end for
12: end for
13: return score
14: end function
15: MasterPrint   CMAES(MatchingScore)




De acuerdo con el estudi, las huellas falsas fueron creadas para engañar sensores dactilares como los integrados en los smartphones actualmente a la venta, que solo leen una parte de toda la huella. Su éxito a la hora de engañarlos depende en gran medida de la seguridad del propio sensor, definido por el FMR (false match rate).

Un sensor con un FMR de 0,01 se considera estricto e identifica una huella incorrectamente solo el 0,01 % de las veces, mientras que uno intermedio tiene un FMR de 0,1. Los sensores de peor seguridad tienen un FMR 1 y validan huellas incorrectas el 1 % de las veces.

Según los hallazgos de los investigadores, los sensores de mayor seguridad son difíciles de engañar, con una tasa de éxito del 1,2 %. Sin embargo, un sensor intermedio (FMR 0,1) puede ser engañado por huellas dactilares maestras en el 22 % de las ocasiones, lo que ya supone un porcentaje alarmante. Los sensores FMR 1 son obviamente incluso peores y pueden ser engañados con una tasa de éxito del 76 %, aunque por fortuna el estudio señala que es improbable encontrar sensores con esta configuración.

Si bien esta no es la primera vez que se han creado huellas dactilares maestras, por primera vez un equipo de científicos ha desarrollado un método automatizado válido.

Si bien es muy difícil que un atacante utilice algo similar a DeepMasterPrint debido a que se requiere mucho trabajo para optimizar la inteligencia artificial para un sistema específico, ya que cada sistema es diferente, es un ejemplo de lo que podría pasar con el paso del tiempo y algo a lo que se deberá estar atento. Algo similar se vio este año en la conferencia de seguridad Black Hat, cuando investigadores de IBM demostraron a través de una prueba de concepto que era posible desarrollar un malware llamado DepepLocker que utilice inteligencia artificial para realizar ataques basados en el reconocimiento facial.

Fuentes:

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.