Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Investigadores hacen jailbreak a robots para causar el caos


Unos investigadores de la Universidad de Pensilvania descubrieron que los robots con IA son vulnerables a jailbreaks y hackeos. Estos han conseguido desarrollar una tecnología que permite atacar a los robots vulnerables usando un LLM y se denomina RoboPAIR. Este ataque afecta a perros-robot como los que hemos visto en algunas noticias (marca Unitree Robotics). También al Jackal UGV de pequeño tamaño y que pertenece al grupo de robots para investigación y reconocimiento y también afecta a vehículos autónomos con IA.

 


 

 


  • Unos investigadores hacen un jailbreak a robots y consiguen engañarlos para que hagan acciones que deberían estar prohibidas

Investigadores hacen jailbreak a robots y siembran el caos: desde atropellos o espiar, a colocar bombas con un 100% de efectividad

 

La inteligencia artificial también se ha empleado en el mundo empresarial e industrial. Hemos visto como esta ha aumentado la productividad a la hora de realizar tareas repetitivas e incluso se ha utilizado en distintos tipos de robots para que aprendieran habilidades como el robot cocinero o el cirujano. Al igual que los robots aprenden a hacer todo tipo de cosas útiles y beneficiosas para los humanos, también pueden hacer lo contrario.

Unos investigadores de la Universidad de Pensilvania descubrieron que los robots con IA son vulnerables a jailbreaks y hackeos. Estos han conseguido desarrollar una tecnología que permite atacar a los robots vulnerables usando un LLM y se denomina RoboPAIR. Este ataque afecta a perros-robot como los que hemos visto en algunas noticias (marca Unitree Robotics). También al Jackal UGV de pequeño tamaño y que pertenece al grupo de robots para investigación y reconocimiento y también afecta a vehículos autónomos con IA. En todos estos casos, RoboPAIR puede explotar la vulnerabilidad e insertar nuevas órdenes al robot para sembrar el caos en la ciudad y a los habitantes.


 

RoboPAIR consigue un 100% de éxito en todas las pruebas realizadas

Según George Pappas, los grandes modelos lingüísticos (LLM) no son tan seguros cuando se utilizan en pruebas del mundo real y de hecho, el jailbreak a los robots ha sido considerado como una tarea fácil. Podemos ver que han sido capaces de conseguir una tasa de éxito del 100% a la hora de realizar todo tipo de acciones. Estas han sido modificadas para hacer creer al robot de que están permitidas y por ejemplo con NVIDIA Dolphins LLM, una colisión con un autobús o atropellar a una persona tenían un 0% de éxito antes y tras el ataque han pasado a tener un 100% de éxito, viendo como el robot está dispuesto a realizar la acción.

Con Clearpath Robotics y el Jackal UGV, vemos como ha podido conseguir mandar una orden de detonar una bomba sin problemas, por lo que podemos ver el gran peligro que conlleva. De hecho, lo mismo se repitió con el 100% de éxito con el Go2 quadruped de Unitree y en este perro-robot se añadía la posibilidad de espiar a humanos y buscar armas.

 
Fuentes:

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.