La ciberseguridad y la resiliencia operativa van de la mano. Las organizaciones han invertido considerablemente en la protección contra brechas de seguridad, ransomware e interrupciones del servicio, creando defensas multicapa diseñadas para mantener a los atacantes fuera y los sistemas en funcionamiento. Sin embargo, los recientes acontecimientos geopolíticos están generando una reflexión más amplia e inquietante: la próxima gran interrupción podría originarse en el mundo físico, en lugar de en el código.
A medida que la infraestructura en la nube se integra cada vez más en el tejido de las economías globales y los sistemas nacionales, deja de ser simplemente una plataforma para las operaciones y se convierte en una extensión de la superficie de ataque. Y es este cambio el que introduce una categoría de riesgo completamente nueva. En lugar de que los servicios fallen mientras la infraestructura permanece intacta, las organizaciones ahora deben considerar escenarios en los que la propia infraestructura se degrada o se destruye.
Infraestructura en la nube como objetivo físico
Este cambio se hizo patente en marzo de 2026. Durante un periodo de intensa tensión geopolítica entre Irán, Estados Unidos, Israel y varios estados del Golfo, la infraestructura en la nube a hiperescala se vio directamente afectada por acciones militares. Ataques con drones iraníes tuvieron como objetivo centros de datos en los Emiratos Árabes Unidos y Baréin, dañando múltiples instalaciones que dan soporte a importantes proveedores de servicios en la nube. El impacto no se limitó a interrupciones localizadas. Daños estructurales, cortes de energía e incluso daños por agua causados por los sistemas de extinción de incendios provocaron graves problemas en múltiples zonas de disponibilidad dentro de una misma región.
Lo que hizo significativo este momento no fue solo la magnitud de los daños, sino lo que reveló sobre la resiliencia. Las arquitecturas en la nube se han basado tradicionalmente en modelos de redundancia que parten de la premisa de que los fallos se aislarían y se contendrían. Las zonas de disponibilidad se diseñaron para operar de forma independiente, de modo que si una fallaba, las demás podían asumir el control sin problemas. En este caso, varias zonas se vieron afectadas simultáneamente y, afortunadamente, el modelo de redundancia funcionó.
Si bien es alarmante, este incidente no es un caso aislado. Se enmarca en un patrón más amplio y en aumento. En 2025, las interrupciones en los cables submarinos del Mar Rojo afectaron aproximadamente al 17 % del tráfico global de internet, demostrando la fragilidad de la conectividad global cuando la infraestructura física se ve comprometida. Ese mismo año, importantes fallos en la infraestructura web de grandes proveedores provocaron interrupciones generalizadas, lo que subraya la gran dependencia de internet en un número relativamente pequeño de sistemas centralizados.
El fracaso de los supuestos tradicionales de resiliencia
En conjunto, estos eventos apuntan a un cambio fundamental. Los puntos de presencia, la conectividad troncal y la infraestructura en la nube ya no son solo facilitadores de las operaciones digitales, sino que se han convertido en objetivos. Y, independientemente de cómo se produzca la interrupción, el resultado es el mismo. Los modelos tradicionales de resiliencia en la nube se están poniendo a prueba de maneras para las que nunca fueron diseñados.
Durante décadas, la arquitectura en la nube se ha basado en una serie de principios implícitos. Se esperaba que los fallos se contuvieran y localizaran. Se asumía que la infraestructura en sí misma permanecería intacta, incluso cuando fallaran los servicios que se ejecutaban sobre ella. Se esperaba que la redundancia cuidadosamente diseñada entre zonas y regiones absorbiera las interrupciones y mantuviera la continuidad. Estas suposiciones permitieron la escalabilidad y la fiabilidad que definen la computación en la nube moderna.
Sin embargo, las suposiciones del pasado están cada vez más desalineadas con la realidad. Los escenarios de fallo actuales son más amplios y complejos. Regiones enteras pueden quedar inaccesibles. Las rutas de red pueden desaparecer sin previo aviso. Múltiples zonas de disponibilidad pueden fallar simultáneamente, no por errores de software o configuraciones incorrectas, sino porque la infraestructura subyacente se ve comprometida físicamente.
En este entorno, la alta disponibilidad ya no es suficiente. La resiliencia debe contemplar la posibilidad de perder segmentos completos de la infraestructura. Cuando esto ocurre, la arquitectura se convierte en el factor determinante entre la continuidad y el colapso.
Repensando la resiliencia a la luz de los escenarios de riesgo modernos
Lo que la resiliencia exige ahora es un cambio de mentalidad. En lugar de optimizar la eficiencia en condiciones estables, las organizaciones deben diseñar para la supervivencia en entornos inestables.
Una arquitectura distribuida globalmente se vuelve fundamental. La resiliencia ya no se trata de la densidad dentro de una sola región, sino de la capacidad de operar en varias regiones cuando una o más dejan de estar disponibles. Esto exige una distribución global real de los puntos de presencia, combinada con la capacidad de redirigir el tráfico de forma instantánea e inteligente en función de la capacidad y disponibilidad en tiempo real. En tales escenarios, la proximidad pasa a un segundo plano. Lo que importa es si la infraestructura de la que dependes sigue estando accesible.
Igualmente importante es el concepto de política unificada y portátil. Durante una interrupción, los usuarios pueden ser redirigidos a través de diferentes regiones, las rutas de tráfico pueden cambiar dinámicamente y los puntos de aplicación pueden modificarse en tiempo real. La seguridad no puede depender de configuraciones específicas de la ubicación. Las políticas deben seguir al usuario y a los datos, aplicándose de forma consistente independientemente de dónde entre el tráfico en la red. Cualquier discrepancia entre la definición y la aplicación de la política introduce riesgos precisamente cuando la estabilidad es más frágil.
La aplicación distribuida es otro componente esencial. Las arquitecturas que dependen de puntos de inspección centralizados crean vulnerabilidades inherentes. Si esos puntos dejan de estar disponibles, la aplicación se desmorona con ellos. Un modelo resiliente distribuye la aplicación a través de la infraestructura de red, asegurando que la inspección y la protección continúen independientemente de por dónde fluya el tráfico. Esto elimina los puntos únicos de fallo y permite que el sistema se adapte dinámicamente bajo presión.
Al mismo tiempo, las organizaciones deben afrontar las limitaciones de los modelos puramente basados en la nube. Las arquitecturas SASE que dependen completamente de una conectividad en la nube consistente y de alta calidad presuponen condiciones ideales que no siempre existen. En realidad, la conectividad puede degradarse. La latencia puede dispararse. Regiones enteras pueden volverse inaccesibles. En estas condiciones, la resiliencia depende de la capacidad de seguir operando incluso cuando la nube no está completamente accesible.
Aquí es donde los enfoques híbridos se vuelven esenciales. Al extender la aplicación de políticas a los puntos finales y sucursales, las organizaciones pueden mantener la continuidad de las políticas incluso durante interrupciones parciales. En lugar de fallar por completo, el sistema se degrada gradualmente, preservando las funciones de seguridad esenciales hasta que se restablece la conectividad total.
Diseñando para la disrupción, no para la estabilidad
Esta realidad en constante evolución es precisamente la que ha moldeado la filosofía de diseño de la arquitectura SASE de Check Point. En lugar de asumir condiciones de infraestructura perfectas, se construye con la expectativa de que se producirán disrupciones. Nuestros puntos de presencia distribuidos globalmente proporcionan resiliencia geográfica, mientras que un plano de políticas unificado garantiza una aplicación coherente en todos los entornos. La aplicación distribuida elimina la dependencia de un único punto de control, y las capacidades híbridas permiten que la protección continúe incluso cuando la conectividad a la nube se ve afectada.
El resultado es una arquitectura diseñada no solo para el rendimiento en condiciones normales, sino también para la continuidad en condiciones adversas. Refleja un cambio más amplio en cómo debe entenderse la resiliencia: no como la capacidad de prevenir fallas por completo, sino como la capacidad de operar a pesar de ellas.
La nube se diseñó originalmente para gestionar fallos dentro de parámetros controlados. Estos parámetros se están ampliando. La infraestructura misma puede quedar inaccesible. Las regiones pueden perder conectividad. Las rutas de red pueden fragmentarse de forma impredecible. Estos ya no son casos excepcionales, sino realidades emergentes.
La resiliencia debe definirse por la capacidad de mantener las operaciones a pesar de la pérdida parcial de la infraestructura. Las organizaciones que siguen confiando en una infraestructura estable y siempre disponible se enfrentan a un riesgo creciente. Aquellas que adoptan la distribución, la adaptabilidad y la coherencia arquitectónica están mejor posicionadas para afrontar las interrupciones.
La cuestión ya no es si la infraestructura fallará, sino si los sistemas construidos sobre ella están preparados para cuando esto ocurra.
Read less