Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Corte de energía de AWS en Oriente Medio provoca gran interrupción en EC2 y servicios de red


Un importante corte de energía en la región AWS me-central-1 (Oriente Medio) el 1 de marzo de 2026 fue causado por un incidente físico inusual en el que objetos externos impactaron contra un centro de datos, provocando chispas y un incendio. El suceso generó graves interrupciones en los servicios de Amazon Elastic Compute Cloud (EC2), las APIs de red y la disponibilidad de recursos en una única Zona de Disponibilidad 




Un apagón importante en la región AWS me-central-1 (Oriente Medio) el 1 de marzo de 2026 fue causado por un incidente físico inusual en el que objetos externos impactaron un centro de datos, provocando chispas y un incendio.

El suceso provocó interrupciones significativas en los servicios de Amazon Elastic Compute Cloud (EC2), las APIs de red y la disponibilidad de recursos en una única Zona de Disponibilidad (mec1-az2).

Según los informes de incidentes de AWS, el departamento de bomberos ordenó un apagado completo de la energía en las instalaciones, incluyendo los generadores de respaldo, mientras gestionaban la situación. La pérdida de energía dejó inoperativos los instancias de EC2, los volúmenes de Amazon Elastic Block Store (EBS) y las bases de datos de Amazon Relational Database Service (RDS) en la zona afectada.

Cronología del incidente

La interrupción comenzó alrededor de las 4:30 AM PST, y AWS inició oficialmente la investigación de problemas de conectividad y energía a las 4:51 AM PST. Para las 6:09 AM PST, AWS confirmó el fallo de energía localizado en mec1-az2.

La compañía implementó estrategias de ponderación de tráfico para redirigir las solicitudes lejos de las instalaciones dañadas, trasladando la carga a las Zonas de Disponibilidad no afectadas dentro de la región.

Los ingenieros de AWS descubrieron que el apagón afectó gravemente a las APIs de red de EC2. Los clientes reportaron errores generalizados de limitación y fallos al llamar a funciones críticas de red, incluyendo AllocateAddress, AssociateAddress, DescribeRouteTable y DescribeNetworkInterfaces.

A lo largo de la tarde, AWS desplegó múltiples cambios de configuración para mitigar los fallos en las APIs. Para las 2:28 PM PST, la API AllocateAddress comenzó a mostrar signos positivos de recuperación.

Sin embargo, la API AssociateAddress resultó más complicada, dejando a los clientes sin poder reasignar direcciones IP elásticas desde recursos caídos a otros activos en zonas saludables.

Mitigación y recuperación parcial

A las 6:01 PM PST, AWS confirmó la recuperación exitosa de las solicitudes a la API AssociateAddress. El equipo de ingeniería desplegó una actualización crítica que permitió a los clientes disociar forzosamente direcciones IP elásticas de los recursos atrapados en el centro de datos sin energía.

Esta mitigación permitió a las organizaciones restaurar la conectividad asociando sus direcciones IP existentes con recursos recién lanzados en Zonas de Disponibilidad no afectadas.

A pesar del progreso en la restauración de la funcionalidad de las APIs, la infraestructura física subyacente permaneció fuera de línea. AWS declaró que aún esperaban la autorización de las autoridades locales para restaurar la energía de manera segura en las instalaciones dañadas.

«Seguimos esperando permiso para volver a encender la energía, y una vez que lo tengamos, nos aseguraremos de restaurar la energía y la conectividad de manera segura», declaró un representante de AWS en la actualización de las 9:41 AM PST.

El incidente subraya la importancia de las arquitecturas multi-Zona de Disponibilidad. AWS enfatizó que los clientes que ejecutaban aplicaciones redundantes en múltiples zonas quedaron en gran medida protegidos del apagón.

Para las organizaciones que requieren una recuperación inmediata de las cargas de trabajo afectadas, AWS recomienda lanzar recursos de reemplazo en zonas no afectadas o utilizar regiones alternativas de AWS, restaurando los datos desde sus instantáneas de EBS o copias de seguridad más recientes.

Debido al aumento de tráfico desviado desde la zona caída, AWS señaló que los clientes podrían experimentar tiempos de aprovisionamiento más largos o necesitar reintentos al lanzar ciertos tipos de instancias en las zonas saludables de ME-CENTRAL-1.

Hasta la última actualización a las 6:01 PM PST, AWS no tenía un tiempo estimado para la restauración física de la energía en las instalaciones de mec1-az2. La compañía sigue aconsejando a los clientes operar desde Zonas de Disponibilidad o regiones alternativas cuando sea posible mientras continúan los esfuerzos de recuperación.


Fuentes:
https://cybersecuritynews.com/aws-power-outage/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.