Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1084
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
▼
2018
(Total:
150
)
-
▼
noviembre
(Total:
21
)
- Incidente de Seguridad en tienda Dell.com
- Servicio de Correos Americano (USPS) expone datos ...
- Alemania quiere regular los routers que usan los u...
- Congreso Español aprueba el cierre de páginas web ...
- 0-day en PHP: borran 6.500 sitios de la Dark Web e...
- Ministro Ciberseguridad Japonés nunca ha usado un ...
- Herramientas y recursos de seguridad en Amazon Web...
- Seguridad informática con Raspberry Pi
- Crean huellas dactilares maestras capaces de engañ...
- Firefox avisa cuando entras a una web que haya sid...
- ISP Nigeriano redirecciona por error tráfico de Go...
- Actualización de seguridad para Plugin WordPress p...
- Bot crea parches en GitHub bajo pseudónimo humano ...
- CAINE 10 - Computer Aided Investigative Environmen...
- Valve recompensa con 20 mil dólares descubridor bu...
- Copia de Seguridad de WhatsApp en Google Drive
- PHP 5 y 7.0 dejarán de tener soporte a finales de año
- Manual JavaScript quiere que aprendas el 80% de to...
- Samsung anuncia su primer smartphone con pantalla ...
- Vulnerabilidades críticas en el cifrado nativo de SSD
- Hackers vinculados a Corea del Norte roban millone...
-
▼
noviembre
(Total:
21
)
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
seguridad
(
396
)
privacidad
(
364
)
google
(
355
)
ransomware
(
341
)
vulnerabilidad
(
305
)
Malware
(
265
)
Windows
(
246
)
android
(
244
)
cve
(
237
)
tutorial
(
236
)
manual
(
221
)
software
(
206
)
hardware
(
196
)
linux
(
126
)
twitter
(
117
)
ddos
(
95
)
WhatsApp
(
92
)
Wifi
(
85
)
cifrado
(
77
)
herramientas
(
75
)
hacking
(
73
)
sysadmin
(
67
)
app
(
65
)
Networking
(
56
)
nvidia
(
53
)
ssd
(
51
)
youtube
(
50
)
adobe
(
43
)
firmware
(
43
)
office
(
41
)
hack
(
40
)
firefox
(
36
)
contraseñas
(
32
)
eventos
(
32
)
antivirus
(
31
)
juegos
(
31
)
cms
(
30
)
flash
(
28
)
anonymous
(
27
)
apache
(
26
)
MAC
(
25
)
programación
(
25
)
exploit
(
23
)
multimedia
(
23
)
javascript
(
22
)
Kernel
(
20
)
ssl
(
19
)
SeguridadWireless
(
17
)
documental
(
16
)
Forense
(
15
)
conferencia
(
15
)
Debugger
(
14
)
lizard squad
(
14
)
técnicas hacking
(
13
)
auditoría
(
12
)
delitos
(
11
)
metasploit
(
11
)
Virtualización
(
10
)
adamo
(
9
)
reversing
(
9
)
Rootkit
(
8
)
Ehn-Dev
(
7
)
MAC Adress
(
6
)
antimalware
(
6
)
oclHashcat
(
5
)
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
Un conector HDMI dummy o fantasma no es más que un HDMI que simula que hay una pantalla conectada. Tienen una variedad de propósitos útil...
-
En WhatsApp se han dicho verdaderas barbaridades. Todos hemos cometido el error de escribir algo en caliente . Y de arrepentirnos. Tal vez ...
Crean huellas dactilares maestras capaces de engañar sensor teléfono móvil
lunes, 19 de noviembre de 2018
|
Publicado por
el-brujo
|
Editar entrada
La huella dactilar se ha popularizado como forma de proteger toda clase
de dispositivos frente a intrusiones, pero numerosos expertos advierten
de que no es una buena sustituta de la contraseña. De entrada, uno puede
cambiar una clave personal cuando quiera, cosa que no sucede con
nuestros dedos u otros factores biométricos. Ahora se suma un nuevo problema en potencia: el uso de huellas dactilares maestras generadas por ordenador mediante ataques por diccionario.
Investigadores de las universidades de Nueva York y Michigan han publicado un documento en el que describen el método utilizado para entrenar una inteligencia artificial con el propósito de crear huellas dactilares falsas que funcionan como si fueran una llave maestra, creando coincidencias válidas en bases de datos con un gran número de huellas dactilares reales. Estas huellas han sido bautizadas por sus creadores como DeepMasterPrints.
En este trabajo, el equipo compuesto por investigadores de la Universidad de Nueva York (NYU) y de la Universidad Estatal de Michigan (MSU) creó imágenes de huellas maestras mediante un método que se conoce como Latent variable model y el uso de la tecnología machine learning. Estas huellas maestras, denominadas “DeepMasterPrints” presentan una efectividad del 20% y permiten recrear huellas utilizadas en sistemas de reconocimiento que pueden ser explotadas a través de un ataque similar a los “ataques de diccionario”.
Para crear una DeepMasterPrint los investigadores entrenaron una red neuronal con huellas dactilares reales procedentes de 6.000 personas distintas para generar combinaciones. Una vez creadas, una red neuronal discriminadora separa las huellas reales de las falsas. Aquellas clasificadas como fraudulentas eran devueltas al generador para retocarlas ligeramente, y así miles y miles de veces hasta lograr engañar al discriminador.
De acuerdo con el estudi, las huellas falsas fueron creadas para engañar sensores dactilares como los integrados en los smartphones actualmente a la venta, que solo leen una parte de toda la huella. Su éxito a la hora de engañarlos depende en gran medida de la seguridad del propio sensor, definido por el FMR (false match rate).
Un sensor con un FMR de 0,01 se considera estricto e identifica una huella incorrectamente solo el 0,01 % de las veces, mientras que uno intermedio tiene un FMR de 0,1. Los sensores de peor seguridad tienen un FMR 1 y validan huellas incorrectas el 1 % de las veces.
Según los hallazgos de los investigadores, los sensores de mayor seguridad son difíciles de engañar, con una tasa de éxito del 1,2 %. Sin embargo, un sensor intermedio (FMR 0,1) puede ser engañado por huellas dactilares maestras en el 22 % de las ocasiones, lo que ya supone un porcentaje alarmante. Los sensores FMR 1 son obviamente incluso peores y pueden ser engañados con una tasa de éxito del 76 %, aunque por fortuna el estudio señala que es improbable encontrar sensores con esta configuración.
Si bien esta no es la primera vez que se han creado huellas dactilares maestras, por primera vez un equipo de científicos ha desarrollado un método automatizado válido.
Si bien es muy difícil que un atacante utilice algo similar a DeepMasterPrint debido a que se requiere mucho trabajo para optimizar la inteligencia artificial para un sistema específico, ya que cada sistema es diferente, es un ejemplo de lo que podría pasar con el paso del tiempo y algo a lo que se deberá estar atento. Algo similar se vio este año en la conferencia de seguridad Black Hat, cuando investigadores de IBM demostraron a través de una prueba de concepto que era posible desarrollar un malware llamado DepepLocker que utilice inteligencia artificial para realizar ataques basados en el reconocimiento facial.
Investigadores de las universidades de Nueva York y Michigan han publicado un documento en el que describen el método utilizado para entrenar una inteligencia artificial con el propósito de crear huellas dactilares falsas que funcionan como si fueran una llave maestra, creando coincidencias válidas en bases de datos con un gran número de huellas dactilares reales. Estas huellas han sido bautizadas por sus creadores como DeepMasterPrints.
DeepMasterPrint
En este trabajo, el equipo compuesto por investigadores de la Universidad de Nueva York (NYU) y de la Universidad Estatal de Michigan (MSU) creó imágenes de huellas maestras mediante un método que se conoce como Latent variable model y el uso de la tecnología machine learning. Estas huellas maestras, denominadas “DeepMasterPrints” presentan una efectividad del 20% y permiten recrear huellas utilizadas en sistemas de reconocimiento que pueden ser explotadas a través de un ataque similar a los “ataques de diccionario”.
Para crear una DeepMasterPrint los investigadores entrenaron una red neuronal con huellas dactilares reales procedentes de 6.000 personas distintas para generar combinaciones. Una vez creadas, una red neuronal discriminadora separa las huellas reales de las falsas. Aquellas clasificadas como fraudulentas eran devueltas al generador para retocarlas ligeramente, y así miles y miles de veces hasta lograr engañar al discriminador.
Algorithm 1 Latent Variable Evolution
fmr 1%; :1%; :01% and fingerprint 12 partial
1: G trainGAN(data)
2: function MatchingScore(X)
3: img G (X)
4: score 0
5: for fingerprint in data do
6: for partial in fingerprint do
7: if matching(img; partial; fmr) then
8: score + +
9: break
10: end if
11: end for
12: end for
13: return score
14: end function
15: MasterPrint CMAES(MatchingScore)
De acuerdo con el estudi, las huellas falsas fueron creadas para engañar sensores dactilares como los integrados en los smartphones actualmente a la venta, que solo leen una parte de toda la huella. Su éxito a la hora de engañarlos depende en gran medida de la seguridad del propio sensor, definido por el FMR (false match rate).
Un sensor con un FMR de 0,01 se considera estricto e identifica una huella incorrectamente solo el 0,01 % de las veces, mientras que uno intermedio tiene un FMR de 0,1. Los sensores de peor seguridad tienen un FMR 1 y validan huellas incorrectas el 1 % de las veces.
Según los hallazgos de los investigadores, los sensores de mayor seguridad son difíciles de engañar, con una tasa de éxito del 1,2 %. Sin embargo, un sensor intermedio (FMR 0,1) puede ser engañado por huellas dactilares maestras en el 22 % de las ocasiones, lo que ya supone un porcentaje alarmante. Los sensores FMR 1 son obviamente incluso peores y pueden ser engañados con una tasa de éxito del 76 %, aunque por fortuna el estudio señala que es improbable encontrar sensores con esta configuración.
Si bien esta no es la primera vez que se han creado huellas dactilares maestras, por primera vez un equipo de científicos ha desarrollado un método automatizado válido.
Si bien es muy difícil que un atacante utilice algo similar a DeepMasterPrint debido a que se requiere mucho trabajo para optimizar la inteligencia artificial para un sistema específico, ya que cada sistema es diferente, es un ejemplo de lo que podría pasar con el paso del tiempo y algo a lo que se deberá estar atento. Algo similar se vio este año en la conferencia de seguridad Black Hat, cuando investigadores de IBM demostraron a través de una prueba de concepto que era posible desarrollar un malware llamado DepepLocker que utilice inteligencia artificial para realizar ataques basados en el reconocimiento facial.
Fuentes:
Enviar por correo electrónico
Escribe un blog
Compartir en X
Compartir con Facebook
Compartir en Pinterest
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.