¿Cómo se acomodan los edge DCs en la infraestructura de telecomunicaciones de AL?

Los centros de datos en el borde, o edge datacenters, reducen la latencia y mejoran el rendimiento de los servicios críticos y en tiempo real, además de simplificar mucho las estructuras de cómputo.

Desde sus inicios, los edge data centers tuvieron un alto crecimiento, dado que resuelven problemas inherentes a la computación en la nube y simplifican varios procesos. Este formato reduce la latencia y mejora el rendimiento de los servicios críticos en tiempo real y acerca el contenido a los consumidores mejorando la experiencia y reduciendo los costos de transporte, además de simplificar enormemente las estructuras informáticas. Como parte integral de la nube, estos centros de datos también ayudan en la organización que mantiene este ecosistema funcionando correctamente.

Las características de reducción de latencia y alta densidad son las mismas que las requeridas por la quinta generación de movilidad, el 5G. Por esta razón, es común que estas dos tecnologías se mencionen juntas. Los centros de datos edge son cruciales para el 5G, ya que contribuyen a su disponibilidad y a una adopción más rápida por todos. Las áreas densamente pobladas con una alta demanda de movilidad requieren grandes cantidades de antenas, fibras y centros de datos. Queda claro que tenemos un gran desafío de espacio para acomodar las instalaciones que soportarán el dúo 5G+Edge.

El concepto de centro de datos de borde surgió durante la transición de las estaciones telefónicas (conocidas como central offices) a los centros de datos en el concepto CORD - Oficina Central Rediseñada como Centro de Datos, en el que también se suma a la función de red definida por software (SDN) y desagregación. La transformación de las estaciones telefónicas en centros de datos fue un evento natural, ya que todos los servicios, incluida la voz, se convirtieron a IP. Pero eso por sí solo no garantiza que estos servicios estén optimizados con respecto a la reducción de la latencia y la disponibilidad. Las estaciones telefónicas se diseñaron para dar servicio a grandes regiones y a un número considerable de abonados, con pocas limitaciones de distancia para los teléfonos.

La cantidad de estaciones telefónicas convertidas en centros de datos es pequeña en comparación con las necesidades de la computación de borde (edge computing), especialmente en las regiones de América Latina donde solo había un operador de telecomunicaciones y pocos servicios de televisión por cable, una vez que los headends (cabeceras) también pueden ejecutar esa función. Esta brecha en el número de estructuras técnicas para lograr la densidad requerida se está llenando de diferentes maneras.

La primera a mencionar es la iniciativa de los grandes operadores que, conscientes de esta demanda y utilizando su capacidad de inversión, están ampliando el número de centros de datos en sus áreas de cobertura. La infraestructura existente facilita esta expansión a unidades más pequeñas, compactas y modulares, que se conectan a centros regionales con mayor capacidad.

La contribución de los operadores a la computación de borde va más allá de aumentar el número de centros de datos, sino que también están acercando su red troncal de alta velocidad a clientes corporativos y proveedores de servicios de internet (ISPs) que atienden a suscriptores empresariales o residenciales. Esta característica no solo reduce la latencia, al disminuir el número de “saltos” en la red, sino que también aumenta la velocidad disponible en los bordes, contribuyendo directamente al rendimiento de las aplicaciones.

Otra forma de llenar el vacío en las estructuras técnicas son las redes extremadamente flexibles que están construyendo los operadores neutrales, que van desde torres y "sitios" para despliegue de redes 5G hasta una densa malla de fibras ópticas en puntos clave para atender a nuevos clientes y servicios. Estos lugares donde se están instalando sitios para redes móviles o equipos para redes de transporte y acceso, también se están considerando para el alojamiento de instalaciones para centro de datos de borde.

El suministro de un local para acomodación de racks, con disponibilidad de energía y aire acondicionado además de la conectividad, hace de los operadores neutrales alternativas rápidas para activación de data centers edge. Racks modulares en salas de equipos, que pueden ser instalados o retirados conforme la demanda, o contenedores completos armados en sitios móviles son opciones comúnmente utilizadas en estos casos.

La tercera forma de aumentar la granularidad y el alcance del centro de datos edge es a través de los ISPs. En Brasil, por ejemplo, los ISPs superaron los grandes operadores en número de suscriptores y hoy llegan a muchas regiones antes olvidadas, sea por tamaño, sea por potencial económico.

Los ISPs tienen perfiles muy distintos y pueden ser clasificados de diversas formas –por la cantidad de abonados, cubrimiento de servicio, perfil de clientes atendidos, inclusive por la capacidad financiera. La gran cantidad y alcance de los ISPs coloca a estos proveedores de servicios en una posición privilegiada y una opción natural para el alojamiento de los edge data centers, mientras que representan un desafío, dado que la heterogeneidad no permite un enfoque igual para todos los que pretenden ingresar a este negocio. Teniendo en cuenta esta realidad, es importante tener en cuenta algunos requisitos para que los ISPs, independientemente de su perfil, contribuyan definitivamente con el borde de la nube, donde se ubica el edge.

Consideraciones

Una de las perspectivas de la infraestructura considera que la nube está compuesta por centros de datos de varios tipos y tamaños interconectados, haciendo una especie de virtualización global. El primer requisito es la homogeneidad de rendimiento deseada para todos los componentes de la nube. Es importante que estos requisitos técnicos no sufran degradación durante su recorrido desde el “centro” de la nube, formado por grandes centros de datos en la nube o de hiperescala, hasta los bordes, donde se ubican los Centros de Datos Edge y las instalaciones de acceso.

Se deben realizar esfuerzos para mantener la alta velocidad, alta disponibilidad y baja latencia hasta el borde. La red óptica de transporte configurada para la interconexión debe poder cumplir con diferentes servicios, operaciones y también ser flexible para permitir cambios rápidos y acomodación de diferentes soluciones.

La opticalización contribuye en gran medida a la reducción de la latencia y al aumento de la velocidad en las conexiones intra e inter data centers, pero solo el uso de las fibras ópticas no puede garantizar estas características. Cuando se combina con sistemas y planificación adecuados, la fibra óptica es un componente muy fuerte del sistema integrado y sincronizado.

Otro requisito importante es que la planificación y construcción de cualquier centro de datos, independientemente de su tamaño, debe observar estándares y requisitos estandarizados y un diseño adecuado para las tareas que realizará.

Las mismas características de infraestructura pueden ser observadas en los data centers hyperscale, edge o inclusive dentro de un ISP. Esto permite que no ocurra una “desaceleración” de desempeño dentro de estas estructuras, manteniendo las tres características mencionadas (velocidad, disponibilidad y latencia) en alto nivel hasta los clientes, bien como el camino inverso hasta el centro.

Una de las tareas del data center edge es mantener el contenido más cerca del usuario en las redes de acceso. Esta arquitectura ofrece varias ventajas, como la reducción del consumo de ancho de banda del backbone para llevar la masa de datos del generador de contenido hasta la distribución en el acceso por el ISP, además de reducir el tiempo de acceso al contenido por parte del consumidor, ya que es alojado en el propio proveedor de acceso. Esto sucede ya a algún tiempo en los ISPs, desde que comenzaron a ser parte de las redes de entrega de contenido, o CDN.

Los grandes generadores de contenido, como las redes sociales y los servicios de streaming, pueden representar más del 50% del tráfico en los ISPs y disponen de equipos con alta capacidad de almacenamiento e inteligencia para administrar el contenido más solicitado en determinada región.

Es evidente la importancia de una infraestructura capaz de satisfacer las necesidades de conectividad, energía y disponibilidad que sea lo suficientemente elástica para permitir el aumento o la disminución bajo demanda. Desde un pequeño grupo de gabinetes hasta una sala llena de ellos, esas providencias aseguran el funcionamiento de los servicios en la nube en su totalidad, desde la palma de la mano del usuario hasta equipos grandes con software de inteligencia artificial en algún lugar del mundo.

Es esencial que los ISPs consideren que sus instalaciones son de misión crítica, ya que el éxito de la arquitectura de borde depende de ellos. Desde la instalación más pequeña, es necesario tener en cuenta el trípode de comunicación esencial (producto, proyecto, servicio), así como la disponibilidad y fiabilidad de todos los elementos involucrados, como el cableado estructurado, la energía eléctrica y la gestión térmica. Tener en cuenta y satisfacer estas demandas le da al ISP una importante ventaja competitiva en la carrera por un lugar en la nube.

Sobre el autor: Flávio R. Marques es ingeniero de aplicaciones en Furukawa Electric LatAm.

Investigue más sobre Gestión de centros de datos