Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Cloudflare cae: 6 horas de interrupción global dejan a clientes sin acceso a internet


Cloudflare sufrió una importante interrupción global de su servicio durante seis horas el 20 de febrero de 2026, causando graves perturbaciones para los clientes que utilizan sus servicios Bring Your Own IP (BYOIP). El incidente, que comenzó a las 17:48 UTC y duró seis horas y siete minutos, retiró involuntariamente las rutas BGP de los clientes de Internet, dejando numerosos servicios y aplicaciones inalcanzables








Cloudflare sufrió una importante caída global de servicio de seis horas el 20 de febrero de 2026, causando graves interrupciones para clientes que utilizan sus servicios Bring Your Own IP (BYOIP).

El incidente, que comenzó a las 17:48 UTC y duró seis horas y siete minutos, retiró involuntariamente las rutas BGP de los clientes de Internet, dejando numerosos servicios y aplicaciones inaccesibles.

La compañía confirmó que la interrupción fue causada exclusivamente por una actualización interna de configuración, y no por un ciberataque o actividad maliciosa, afectando al 25% de todos los prefijos BYOIP a nivel global e provocando errores HTTP 403 en el sitio web del resolvedor DNS recursivo público 1.1.1.1.

Desglose técnico del fallo en la API de direccionamiento

La causa raíz de la caída se remonta a un error interno en la API de Direccionamiento de Cloudflare, introducido durante el despliegue de una subtarea de limpieza automatizada.

Esta tarea estaba diseñada para reemplazar procesos manuales de eliminación de prefijos BYOIP como parte de la iniciativa de resiliencia de la compañía “Code Orange: Fail Small”.

 

Los ingenieros desplegaron un sistema para verificar y eliminar periódicamente objetos pendientes de la red. Sin embargo, el sistema ejecutó una consulta a la API pasando el pending_delete sin un valor asignado, lo que hizo que el servidor interpretara la cadena vacía como un comando para poner en cola todos los prefijos BYOIP devueltos para su eliminación, en lugar de solo aquellos programados para ser retirados.

Este error de codificación eliminó sistemáticamente alrededor de 1.100 prefijos BYOIP y sus enlaces de servicio dependientes antes de que un ingeniero detuviera manualmente el proceso.

Las conexiones afectadas cayeron inmediatamente en un estado conocido como BGP Path Hunting, donde las conexiones de los usuarios finales buscan continuamente rutas de destino hasta que agotan el tiempo de espera y fallan. El radio de impacto se extendió a múltiples productos principales que dependen de configuraciones BYOIP para la publicidad en Internet.

Servicio o ProductoDescripción del Impacto
CDN y Servicios de Seguridad BásicosEl tráfico no pudo enrutarse a Cloudflare, lo que provocó tiempos de espera en las conexiones para los sitios web anunciados.
SpectrumLas aplicaciones que operaban con BYOIP fallaron por completo al proxyficar el tráfico.
Egreso DedicadoLos usuarios que utilizaban BYOIP o IPs Dedicadas no pudieron enviar tráfico saliente a sus destinos.
Magic TransitLos usuarios finales que se conectaban a aplicaciones protegidas experimentaron fallos completos de conexión y tiempos de espera.

Esfuerzos de recuperación y remediación planificada

La recuperación se retrasó considerablemente porque la retirada masiva afectó de manera distinta a los prefijos de los clientes, lo que requirió operaciones intensivas y variadas de recuperación de datos.

Mientras algunos usuarios mantuvieron la capacidad de autorrepararse activando nuevamente sus anuncios a través del panel de control de Cloudflare, alrededor de 300 prefijos sufrieron la eliminación completa de sus enlaces de servicio.

Estas cuentas gravemente afectadas requirieron una restauración manual por parte de los ingenieros, quienes tuvieron que implementar actualizaciones globales de configuración para reaplicar los ajustes en cada máquina de la red perimetral.

Para evitar futuros despliegues catastróficos, Cloudflare está acelerando varios cambios críticos en su arquitectura bajo su mandato Code Orange.

El equipo de ingeniería planea estandarizar el esquema de la API para evitar errores de interpretación de flags, implementar interruptores automáticos que detecten eliminaciones anormalmente rápidas de prefijos BGP y establecer instantáneas de estado operacional mediadas por salud para separar las configuraciones de los clientes de los despliegues en producción.

Hora (UTC)Descripción del Evento del Incidente
17:56El subproceso defectuoso se ejecuta, retirando prefijos y desencadenando la caída.
18:46Un ingeniero identifica la tarea defectuosa, desactiva su ejecución regular y comienza la mitigación.
19:19La autorreparación desde el panel de control se hace disponible, permitiendo que algunos clientes restauren el servicio.
23:03Se completa el despliegue de la configuración global en las máquinas, restaurando completamente los prefijos eliminados restantes.

Cloudflare concluyó su informe oficial del incidente con una disculpa directa a sus usuarios y a la comunidad global de Internet por la interrupción del 20 de febrero. La compañía reconoció públicamente que la caída generalizada socavó su promesa fundamental de ofrecer una red altamente resiliente.




Fuentes:
https://cybersecuritynews.com/cloudflare-down-6-hour-of-massive-global-service-outage/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.