Tienda FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon El panorama descontrolado del "Estado de los Secretos"


El informe "State of Secrets Sprawl 2026" de GitGuardian revela un aumento récord del 34% en secretos filtrados en 2025 (29 millones), impulsado por la IA (filtraciones relacionadas con IA crecieron un 81%), la exposición de repositorios internos (6 veces más probabilidades de filtraciones que los públicos) y la falta de remediación (el 64% de secretos filtrados en 2022 siguen válidos). Las credenciales críticas también se filtran en herramientas de colaboración como Slack o Jira, mientras que los sistemas autohospedados (GitLab, Docker) muestran tasas de exposición hasta 4 veces mayores que GitHub público. La solución exige gobernanza de identidades no humanas y automatización en la rotación de secretos.





La proliferación de secretos no se detiene: en 2025, se aceleró más de lo que la mayoría de los equipos de seguridad anticipaban. El informe "State of Secrets Sprawl 2026" de GitGuardian analizó miles de millones de confirmaciones en GitHub público y descubrió 29 millones de nuevos secretos codificados solo en 2025, un aumento del 34% interanual y el mayor incremento anual jamás registrado.

Los hallazgos de este año revelan tres tendencias clave: la IA ha transformado radicalmente cómo y dónde se filtran las credenciales; los sistemas internos están mucho más expuestos de lo que la mayoría de las organizaciones creen; y la remediación sigue siendo el talón de Aquiles del sector.

Aquí presentamos nueve conclusiones estratégicas importantes.

1. Los secretos crecen más rápido que la población de desarrolladores.

Desde 2021, los secretos filtrados han aumentado un 152%, mientras que la base de desarrolladores públicos de GitHub se expandió un 98%. Un mayor número de desarrolladores y una mayor generación de código asistida por IA implican más credenciales en circulación, y la detección por sí sola no puede seguir el ritmo.



2. Los servicios de IA provocaron un aumento del 81% en las filtraciones interanuales.

GitGuardian detectó 1.275.105 secretos filtrados relacionados con servicios de IA en 2025, un 81% más que en 2024. Ocho de las diez categorías de secretos filtrados de mayor crecimiento estaban relacionadas con la IA. Esto no se limita a OpenAI o Anthropic Keys.

El verdadero auge se está produciendo en la infraestructura de gestión de claves de seguridad (LLM): API de recuperación como Brave Search (+1255%), herramientas de orquestación como Firecrawl (+796%) y backends gestionados como Supabase (+992%).

Cada nueva integración de IA introduce una nueva identidad de máquina, y cada una amplía la superficie de ataque. Implementar la IA de forma segura requiere una estrategia de seguridad de secretos adecuada.

3. Los repositorios internos tienen 6 veces más probabilidades de sufrir filtraciones que los públicos.

Si bien GitHub, un repositorio público, acapara la atención, las credenciales de mayor valor se encuentran en los repositorios internos. La investigación de GitGuardian reveló que el 32,2% de los repositorios internos contienen al menos un secreto codificado (harcoded), en comparación con solo el 5,6% de los repositorios públicos.

No se trata de claves de prueba, sino de tokens de CI/CD, credenciales de acceso a la nube y contraseñas de bases de datos: los activos que los atacantes buscan una vez que logran infiltrarse. La seguridad basada en ocultar datos internos ha fracasado. Considere los repositorios internos como fuentes de filtraciones de primer orden.



4. El 28% de las filtraciones ocurren completamente fuera del código.

Los secretos no solo se encuentran en los repositorios. GitGuardian descubrió que el 28% de los incidentes en 2025 se originaron completamente fuera del código fuente, en Slack, Jira, Confluence y herramientas de colaboración similares.

Estas filtraciones son más peligrosas: el 56,7% de los secretos encontrados solo en herramientas de colaboración se clasificaron como críticos, en comparación con el 43,7% de los incidentes que solo se encontraron en el código.

Los equipos comparten credenciales durante la respuesta a incidentes, la resolución de problemas y la incorporación de nuevos usuarios. Si solo analiza el código, está perdiendo una cuarta parte de su exposición. Además, las filtraciones de credenciales en las herramientas de colaboración suelen ser más críticas y graves.

5. Los registros de GitLab y Docker autohospedados exponen secretos a una tasa de 3 a 4 veces mayor que los de GitHub público.

GitGuardian descubrió miles de instancias de GitLab autohospedadas y registros de Docker expuestos involuntariamente en 2025. El análisis de estos sistemas reveló 80.000 credenciales, de las cuales 10.000 seguían siendo válidas.

Los secretos en las imágenes de Docker resultaron especialmente preocupantes: el 18% de las imágenes de Docker analizadas contenían secretos, y el 15% de estos eran válidos, en comparación con el 12% de los repositorios de GitLab, que presentaban una tasa de validez del 12%. Los secretos de Docker también están más cerca de los entornos de producción. La separación entre lo privado y lo público es permeable.

6. El 64% de los secretos filtrados en 2022 siguen siendo válidos hoy en día.

La detección no es la solución. GitGuardian volvió a probar los secretos confirmados como válidos en 2022 y descubrió que el 64% seguían siendo vulnerables cuatro años después. Esto no es un error de redondeo. Es la prueba de que la rotación y la revocación no son rutinarias, gestionadas ni automatizadas en la mayoría de las organizaciones.

Las credenciales integradas en sistemas de compilación, variables de CI, imágenes de contenedores e integraciones con proveedores son difíciles de reemplazar sin interrumpir la producción. Para muchos equipos, la opción más segura a corto plazo es no hacer nada, dejando a los atacantes con rutas de acceso persistentes.

7. Los puntos de acceso de los desarrolladores son la nueva capa de agregación de credenciales.

El ataque a la cadena de suministro de Shai-Hulud 2 proporcionó a los investigadores una visibilidad excepcional sobre el aspecto real de los secretos en las máquinas de los desarrolladores comprometidas. En 6.943 sistemas, GitGuardian identificó 294.842 ocurrencias de secretos, correspondientes a 33.185 secretos únicos.

En promedio, cada secreto activo aparecía en ocho ubicaciones diferentes en la misma máquina, distribuidas entre archivos .env, historial de shell, configuraciones de IDE, tokens en caché y artefactos de compilación.

Aún más sorprendente: el 59% de las máquinas comprometidas eran ejecutores de CI/CD, no portátiles personales. Una vez que los secretos comienzan a extenderse por la infraestructura de compilación, se convierten en un problema de exposición organizacional, no solo en una cuestión de higiene individual.

Más recientemente, el ataque a la cadena de suministro de LiteLLM demostró el mismo patrón: paquetes comprometidos extrajeron claves SSH, credenciales en la nube y tokens de API de las máquinas de los desarrolladores, donde las herramientas de desarrollo de IA se concentran cada vez más.

8. Los servidores MCP expusieron más de 24 000 secretos en su primer año.

El Protocolo de Contexto de Modelo (MCP) mejoró la utilidad de los sistemas de IA al conectarlos con herramientas y fuentes de datos. También introdujo una nueva clase de exposición de credenciales. En 2025, GitGuardian encontró 24.008 secretos únicos en archivos de configuración relacionados con MCP en GitHub público, de los cuales 2117 se verificaron como válidos.

A medida que se acelera la adopción de la IA basada en agentes, MCP y marcos similares normalizarán la inclusión de credenciales en archivos de configuración, indicadores de inicio y JSON local. El ecosistema de agentes se expande más rápido de lo que los controles de seguridad pueden adaptarse.

9. De la detección de secretos a la gobernanza de identidades no humanas

El factor limitante del sector es responder a tres preguntas a gran escala:

  • ¿Qué identidades no humanas existen en mi entorno?
  • ¿Quién las posee?
  • ¿A qué pueden acceder?

Las organizaciones que adoptan la IA con agentes deben ir más allá de la detección y establecer una gobernanza continua de la identidad no humana. Esto implica eliminar las credenciales estáticas de larga duración siempre que sea posible, adoptar el acceso basado en identidades de corta duración, implementar el almacenamiento de secretos como flujo de trabajo predeterminado para desarrolladores y tratar cada cuenta de servicio, trabajo de integración continua y agente de IA como una identidad gobernada con gestión del ciclo de vida.

En resumen

La proliferación de secretos no se está ralentizando, sino que se está acelerando junto con la adopción de la IA, las herramientas de productividad para desarrolladores y la entrega de software distribuido. El antiguo modelo de escanear repositorios públicos y esperar el cumplimiento ya no es suficiente.

Los equipos de seguridad necesitan visibilidad en todos los sistemas internos, herramientas de colaboración, registros de contenedores y puntos de acceso de los desarrolladores. Necesitan flujos de trabajo de corrección que puedan rotar las credenciales sin interrumpir la producción. Y, lo más importante, deben dejar de tratar los secretos como incidentes aislados y empezar a gestionarlos como parte de un programa más amplio de gobernanza de identidades no humanas.

La superficie de ataque ha cambiado. La pregunta es si los programas de seguridad se adaptarán a este cambio.

Fuente: THN



Vía:
http://blog.segu-info.com.ar/2026/03/el-panorama-descontrolado-del-estado-de.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.