Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Bots de IA lanzando ciberataques 24/7: no duermen, no se cansan y hackean mejor que un humano


Los bots de IA están superando a los hackers humanos, operando 24/7 sin cansancio y demostrando mayor eficiencia en ciberataques, según la Universidad de Stanford.




Los hackers creados por inteligencia artificial han mejorado tanto su rendimiento que ya superan a 9 de cada 10 hackers humanos, según un estudio de la Universidad de Stanford.

La IA ha llegado para quedarse a muchos sectores, y el impacto laboral de ello ya se nota en muchos trabajos, pero pese a las grandes promesas de las empresas como OpenAI, Google y compañía sobre la efectividad de los modelos, la efectividad de esta tecnología comparada con los humanos aún está bastante en entredicho.


Ahora, un estudio de la prestigiosa Universidad de Stanford, en Estados Unidos, ha analizado el rendimiento de la inteligencia artificial y lo ha comparado con el de los profesionales del sector de la ciberseguridad.

Y el resultado es alarmante, ya que las herramientas de IA cada vez son más efectivas para hackear, tanto que ya superan a la mayoría de los hackers humanos, por lo que puede que el próximo ciberataque que sufras no sea de parte de ninguna persona sino de una herramienta automatizada.

La IA supera a 9 de cada 10 hackers humanos

En el estudio, los expertos de la Universidad de Stanford han utilizado un bot de IA al que han llamado Artemis, que funciona de una forma muy similar a las técnicas usadas por cibercriminales chinos que han usado la IA de Anthropic para atacar a grandes empresas y gobiernos de otros países.

Artemis es un software especializado en escanear una red informática como las de una empresa o un dispositivo reales y encontrar vulnerabilidades de software, para posteriormente proceder a encontrar formas de explotarlas en ciberataques. Como haría un hacker real.

Hasta ahora, las herramientas de IA no habían tenido resultados demasiado buenos en este tipo de pruebas de hacking en el mundo real, por lo que los investigadores esperaban que su rendimiento estuviese por debajo de la media, pero su sorpresa llegó al ver que no fue así.

El bot de IA superó a 9 de los 10 participantes humanos contra los que se midió, quedando en segundo lugar de la clasificación general que se realizó para la investigación.

En total, Artemis descubrió un total de 9 vulnerabilidades en la red analizada, con una tasa de validez del 82%, al contrario de lo sucedido con modelos previamente estudiados, como Codex y CyAgent, inferior al de los expertos humanos en promedio.

Esta herramienta cuesta solo 18 dólares por hora, en comparación con los 60 dólares por hora y hasta 2.000 dólares diarios que suelen tener como salario los expertos más avanzados en ciberseguridad.

"Observamos que los agentes de IA ofrecen ventajas en cuanto a enumeración sistemática, explotación paralela y coste", como aseguran en los conclusiones los autores del estudio de Stanford, titulado Comparación entre agentes de IA y profesionales de la ciberseguridad en pruebas de penetración en el mundo real.

Sin embargo, no es oro todo lo que reluce en cuanto a se refiere a los hackers de IA, ya que también presentan problemas y errores concretos con una mayor frecuencia que los seres humanos.

"También identificamos algunas deficiencias clave en cuanto a capacidades: los agentes de IA presentan mayores tasas de falsos positivos y tienen dificultades con las tareas basadas en interfaz gráfica de usuario (GUI)", añade el estudio.

En total, el 18% de las vulnerabilidades reportadas por Artemis fueron falsos positivos. Además, la IA no detectó el bug más evidente de todos los que había en la red, algo que sí hicieron todos los profesionales humanos a los que se midió.

Otros usos de la IA en ciberataques

Más allá de la investigación académica, en la realidad ya se conocen múltiples casos en los que se ha utilizado la inteligencia artificial para la ciberseguridad, muchas veces desde el lado malo del sector.

Así ha sucedido en recientes ciberataques, como ha reconocido Anthropic, en campañas de ransomware de las que ha informado la mismísima Google que se acaban convirtiendo en auténticas amenazas para la seguridad de los países o por la capacidad de ChatGPT de crear nuevos virus en tiempo récord, entre otros muchos ejemplos.

De hecho, la propia IA también es susceptible de sufrir ataques, como se ha visto recientemente en investigaciones que han demostrado que se puede realizar inyección de prompts para manipular modelos con millones de usuarios en todo el mundo como ChatGPT, Gemini, Copilot o Claude.



Fuentes:
https://computerhoy.20minutos.es/ciberseguridad/bots-ia-lanzando-ciberataques-24-7-no-duermen-no-se-cansan-hackean-mejor-que-un-humano_6909784_0.html



0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.