Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Intentan robar la lógica de la IA Google Gemini con más de 100.000 consultas automatizadas


Google alerta sobre actores de amenazas que intentan robar la lógica de su IA Gemini mediante más de 100.000 consultas automatizadas, revelando un nuevo frente en ciberespionaje con IA como objetivo clave.





Google ha puesto negro sobre blanco en algo que muchos intuían: la Inteligencia Artificial ya no es solo una herramienta productiva, también se está integrando en operaciones reales de ciberespionaje y fraude digital, es decir, al malware. El último informe del Google Threat Intelligence Group detalla 5 vectores que marcan un punto de inflexión en la actividad detectada y bloqueada. Y es que hackers están intentando robar la lógica que usa Google con su IA Gemini para luego poder mejorar sus ataques.

El documento se enfoca principalmente en cómo se utilizan modelos como Gemini y cómo se les ataca al mismo tiempo, pero, ¿dónde se encuentra el verdadero riesgo y por qué es importante que nos concierne a todos? La respuesta no es fácil, pero conviene saberla, porque la ciberseguridad está avanzando tan rápido, en ambos sentidos, que dentro de poco estará fuera del control humano.

Intentan robar la lógica usada por la IA de Google, Gemini, para implementarla en sus próximos ataques

Hackers intenta robar la lógica de la IA Google Gemini

El primer punto importante es entender un tipo de ataque, el de extracción. Algunos actores, hackers concretamente, han hecho más de cien mil consultas automatizadas para tratar de hacer que el modelo revele su forma de pensar. No intentan robar información de los usuarios, sino entender cómo razona el modelo, en este caso, Gemini AI.

Si logran comprender cómo responde, pueden crear versiones alternativas sin tener que gastar mucho dinero en desarrollo. Esto es un problema para la propiedad intelectual de Google y la ventaja que tienen las empresas que invierten mucho dinero en estos sistemas.

El segundo frente es cuando grupos que tienen el apoyo de Estados usan la Inteligencia Artificial de manera activa. No están solo probando, sino que la están incorporando en etapas reales de sus ataques. Estos grupos utilizan la Inteligencia Artificial para reconocer objetivos automáticamente, analizar perfiles que están disponibles públicamente, encontrar posibles debilidades y crear contenido que pueda persuadir a la gente. Todo esto reduce el tiempo y los recursos humanos que se necesitan para llevar a cabo una campaña de espionaje, o al menos, eso informa Google.

Como tercer punto a tratar, de los tantos que han expuesto desde la gran G, afirman que los estafadores han mejorado mucho la forma en que nos engañan por correo electrónico. Antes, era fácil detectar estos correos porque tenían errores de ortografía o traducciones malas. Ahora, los correos parecen muy normales y se adaptan a la cultura y al trabajo de cada persona. Es decir, cada vez son más específicos. Incluso pueden mantener conversaciones que parecen reales. Esto hace que sea más difícil saber cuándo nos están engañando.

IA autónoma, su integración en el malware de nueva generación y la aceleración de los ataques

Casper-Malware-sonido-altavoz-pc

Cuarto, la integración de IA en malware. El informe menciona casos donde el código se genera dinámicamente a partir de consultas al modelo y se ejecuta en memoria, reduciendo huella en el sistema. No es masivo todavía, pero introduce un componente adaptativo que complica la detección tradicional basada en firmas.

El quinto punto es el interés cada vez mayor por la Inteligencia Artificial con cierto grado de autonomía. Estamos hablando de sistemas que pueden realizar varias tareas una después de otra sin necesidad de que alguien los supervise constantemente. Aunque todavía no es lo más común, si esta tecnología sigue evolucionando, podría permitir que se escalen los ataques sin tener que aumentar el número de personas que trabajan detrás de ellos de la misma manera.

La Inteligencia Artificial con autonomía podría cambiar la forma en que se llevan a cabo ciertas tareas, hacerlas más eficientes y permitir que se hagan cosas que antes eran imposibles. El interés por la Inteligencia Artificial con cierto grado de autonomía es cada vez mayor y podría tener un gran impacto en el futuro.

No estamos ante un cambio radical inmediato, pero sí ante una aceleración clara del problema, de la batalla de quien ataca y quien defiende, del cómo y cuándo. La IA no crea nuevas intenciones maliciosas, eso lo hacemos nosotros los humanos, pero amplifica nuestras capacidades existentes. ¿Estamos adaptando nuestras defensas al mismo ritmo que evoluciona esta tecnología? La respuesta, según Google, es que no, así que podríamos tener brechas de seguridad, tanto estatales como personales, masivas, en muy poco tiempo si esto sigue así.Principio del formulario



Fuentes:
https://elchapuzasinformatico.com/2026/02/hackers-intentan-robar-logica-ia-google-gemini/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.