Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Google ofrece hasta 30.000 dólares por detectar fallos críticos en su IA


Google ha anunciado un nuevo Programa de Recompensas por Vulnerabilidades (VRP) enfocado exclusivamente en la seguridad de sus productos de inteligencia artificial, con incentivos que pueden alcanzar los 30.000 dólares por fallo descubierto. Remuneraciones generosas con el objetivo de atraer a la comunidad de investigadores en la detección de vulnerabilidades que afecten a los sistemas más avanzados de la compañía.




Google anunció la creación de un programa exclusivo de recompensas para detectar vulnerabilidades en sus sistemas de inteligencia artificial (IA). El nuevo esquema contempla premios de hasta 30.000 dólares para quienes descubran fallos críticos que afecten la seguridad o provoquen abusos de alto impacto.

Google amplía su programa de recompensas por fallos en IA: hasta 30.000 dólares por vulnerabilidad

A diferencia del programa de recompensas tradicional, esta nueva iniciativa se centra de lleno en los productos de IA más críticos de Google. Entre ellos destacan las integraciones de inteligencia artificial en Google Search (en la web y en móviles), las aplicaciones Gemini, las funciones inteligentes de Google Workspace (Gmail, Drive, Meet o Calendar) y herramientas de desarrollo como AI Studio o Jules detallan en BleepingComputer.

Como de costumbre, eso sí, las compensaciones varían en función del tipo de vulnerabilidad y del producto afectado, con tres niveles definidos: Flagship (productos clave), Standard y Other. Por ejemplo, un fallo de tipo “Rogue Actions” (A1)  o acciones no autorizadas derivadas del comportamiento del modelo, puede alcanzar los 20.000 dólares en un producto Flagship, mientras que una vulnerabilidad de exfiltración de datos sensibles (A2) puede pagarse con hasta 15.000 dólares. Los errores de phishing o manipulación de salida se remuneran con hasta 5.000 dólares.

Google ya había ampliado su programa de recompensas en 2023 para incluir vulnerabilidades vinculadas a sus sistemas de IA, pero este movimiento supone una rama independiente y específica para la nueva generación de modelos. En resumen, cuanto más se integran los modelos de IA en los servicios de la compañía, mayor es la superficie de ataque y más urgente resulta reforzar su seguridad, sostiene la compañía.

«En octubre de 2023, anunciamos los criterios de recompensa de Google para la notificación de errores en productos de IA, ampliando nuestro Programa de Recompensas por Vulnerabilidades de Abuso (VRP) para fomentar el descubrimiento y la comunicación de problemas y vulnerabilidades específicos de nuestros sistemas de IA», explicó Google. «Mientras celebramos el segundo año de recompensas por errores de IA en Google, nos entusiasma compartir lo que hemos aprendido y anunciar el lanzamiento de nuestro nuevo y dedicado Programa de Recompensas por Vulnerabilidades de IA.»

Desde que se puso en marcha el primer VRP en 2010, Google ha pagado más de 65 millones de dólares en recompensas, 12 millones solo en el último año. Con esta ampliación, la firma busca mantener el interés de los investigadores y reforzar la protección de su ecosistema de IA frente a una amenaza que evoluciona al mismo ritmo que la tecnología, lo cual no es precisamente sencillo.

La iniciativa, denominada oficialmente como AI Vulnerability Reward Program (AI VRP), busca responder a las inquietudes que durante los últimos años han planteado tanto desarrolladores como expertos en ciberseguridad, especialmente ante la creciente integración de modelos de IA en productos de consumo y servicios críticos.

¿Qué tipo de fallos serán recompensados?

Google definió un marco claro: solo serán premiados los descubrimientos relacionados con abusos de alto impacto o brechas de seguridad, mientras que los problemas ligados al contenido (como respuestas inadecuadas o sesgadas de los modelos) quedan fuera del alcance del programa. La compañía argumenta que estos últimos ya cuentan con mecanismos internos de revisión gestionados por expertos.

Entre las vulnerabilidades incluidas en el programa destacan:

  • Denegación de servicio entre usuarios
  • Uso no autorizado del producto
  • Omisión de controles de acceso
  • Manipulación del contexto entre cuentas
  • Robo de modelos
  • Facilitación de campañas de phishing
  • Exfiltración de datos confidenciales
  • Acciones deshonestas dentro del sistema

Las recompensas variarán según la gravedad del hallazgo y el tipo de producto afectado, que Google clasifica en tres niveles: buque insignia, estándar y otros. El premio base más alto es de 20.000 dólares, correspondiente a acciones deshonestas en productos de alto perfil como Gemini (el modelo de IA generativa de Google), pero puede elevarse hasta 30.000 dólares aplicando bonificaciones por severidad o impacto.

Fuentes:

https://www.muyseguridad.net/2025/10/08/google-programa-recompensas-ia/

https://www.msn.com/es-xl/noticias/other/google-ofrece-hasta-30-000-d%C3%B3lares-por-detectar-fallos-cr%C3%ADticos-en-su-ia/ar-AA1O0R5n


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.