Mario Savoia - Fotolia
Requisitos para un óptimo centro de datos
Consejos de expertos para diseñar, implementar y gestionar adecuadamente los centros de datos.
Las tendencias hacia la nube, virtualización e Internet de las Cosas (IoT), sumadas a la responsabilidad social, sin duda, están definiendo los requisitos técnicos en los centros de datos actuales y futuros, los cuales deberán, de aquí al 2020 –según Gartner- reducir el espacio físico al menos un 30% y aumentar sus capacidades de almacenamiento y comunicación.
Varias son las tendencias y avances tecnológicos que atañen hoy al negocio de los centros de datos, al igual que los elementos que deben considerarse para satisfacer las necesidades de las empresas, especialmente en cuanto a requisitos o condiciones técnicas que deben cumplir sus instalaciones y equipos.
Para los expertos, uno de los requisitos más importantes, dados los actuales desafíos del sector, es la seguridad. Y al hablar más específicamente de las instalaciones, se añade la refrigeración y un costo energético razonable. “Para garantizar que un datacenter satisfaga determinadas necesidades, dependiendo del tamaño del proyecto, se debe realizar una evaluación de riesgos”, dice Claudio Yamashita, gerente de Fujitsu Chile. “Esto permite reconocer claramente los factores que afectan la seguridad, confiabilidad y bajo consumo de TI, además de recomendar medidas de optimización para incrementar la eficacia de un centro de datos, y con esto la máxima rentabilidad en las operaciones.”
Por su parte, para Héctor Zapata, subgerente de Infraestructura TI de Corporaciones de Entel, un centro de datos debe ser capaz de responder en todo momento a los clientes, quienes basan su negocio en la tecnología que está alojada en ellos. “La disponibilidad del centro de datos debe ser la suficiente para soportar al negocio de los clientes. Para ellos deben tener un diseño alineado a estas necesidades. Estándares de la industria que garantizan esto son las certificaciones de Tier III y de Operational Sustainability, entregadas por el Uptime Institute”, sostiene.
Acá es importante destacar que no sólo es relevante contar con la infraestructura, sino también saber operarla de manera confiable. Esto último se consigue con procesos, procedimientos y personal calificado. “Una vez que el centro de datos cumple con la disponibilidad, infraestructura y operación correcta, también es relevante en la entrega de valor a clientes, que éste sea eficiente en cuanto al tratamiento de la energía utilizada en él. Esto se logra con diseños eficientes, en especial con el manejo de la climatización, que implica el mayor consumo de energía después de los servidores. En un datacenter tradicional la climatización representa hasta un 70% del consumo de un servidor, es decir, que por cada kilowatt que consume un servidor se necesitan 0,7 kilowatts para enfriar ese servidor”, agrega Zapata.
Hay que considerar que con diseños modernos, se logran consumos de enfriamiento menores a un 20%. Por ejemplo, el data center de Entel en Ciudad de los Valles (Chile) considera un sistema de freecooling indirecto (utilización de aire externo para realizar el intercambio de calor), lo que reduce el uso de compresores, que son los que más electricidad consumen. Además, es relevante el tratamiento del aire dentro de la sala de cómputos, donde se debe tener el cuidado de enviar el aire frío a los servidores para enfriarlos y sacar el aire caliente de la sala, es decir, una eficiente gestión del aire dentro de la sala.
Cumplimiento con estándares para garantizar disponibilidad de servicios
Para Lautaro Spotorno, director de Comunicaciones de SAP Región Sur y Región Norte de América Latina, un centro de datos debe cumplir con varias condiciones técnicas, pero que fundamentalmente deben concentrarse en garantizar tres puntos que son disponibilidad, seguridad y sustentabilidad.
En tanto, Francisco Guzmán, director para el Mercado Empresarial de Claro Chile, agrega que para satisfacer las actuales tendencias tecnológicas, un datacenter debe ser diseñado desde un comienzo orientado al uso eficiente de la energía y recursos naturales ya que cada día son más escasos, como por ejemplo manejo del sistema de climatización con freecooling, uso de energías renovables, flexibilidad, crecimiento modular o escalable: “El diseño del centro de datos debe considerar asegurar la continuidad operacional de las personas y equipos contra eventos dentro de su alcance, como por ejemplo, tener aislación sísmica para soportar terremotos de cierta magnitud. Debe considerar variables de entorno que le permitan optimizar el uso de recursos como son la ubicación geográfica. Además, condiciones de seguridad física y del entorno, y tener procesos operacionales que aseguren la continuidad operacional. Finalmente, adoptar estándares de industria que permitan en el tiempo asegurar la sustentabilidad operacional”, expresa Guzmán.
Sergio Rademacher, gerente corporativo de Servicios de Datacenter y Cloud de SONDA, destaca que es crucial definir qué se necesita, de acuerdo al Uptime Institute, principal estándar de la industria de los data centers. “Las medidas que van desde Tier 1 (menor disponibilidad) hasta el Tier 4 (máxima disponibilidad) responden a una metodología estandarizada usada para definir la continuidad operativa de un centro de datos. Estas medidas son útiles para medir el desempeño de un centro de datos, la inversión y el ROI (retorno de la inversión). El DC Tier III es el más robusto actualmente disponible en el mercado chileno (y por lo tanto menos expuesto a fallas). Está diseñado para alojar servidores y equipos de cómputo de misión crítica, con subsistemas completamente redundantes (enfriamiento, energía, cableado, etc.) y zonas de seguridad compartimentada. En el extremo opuesto se encuentran los DC Tier 1, que son más rudimentarios y son utilizados para infraestructura no crítica. Aunque suene incongruente, muchas organizaciones tienen sus sistemas críticos en “salas de servidores” que con bastante esfuerzo calificarían como TIER I”, explica.
Fernando Henriques, director de la práctica de servicios de infraestructura de nube (CIS) en Unisys, coincide en que un centro de datos debe tener las certificaciones Tier 2 o 3 del Uptime Institute; tener conectividad con los principales proveedores de telecomunicaciones; ofertar opciones de collocation por rack o “cage” con control de acceso biométrico; ofertar servicios adicionales “on-demand” o “as a service” por lo menos para almacenamiento, respaldo o copia de seguridad, bases de datos, VMware, firewall/IPS y acceso a internet.”
¿Qué pasa con las actuales normativas de sustentabilidad y eficiencia energética?
La sustentabilidad y eficiencia energética se miden hoy por el nivel de emisión de CO2, uso de energías renovables y por el consumo eléctrico. “La eficiencia de la utilización de metros cuadrados y la virtualización son las herramientas que se utilizan para reducir consumo y emisiones, así como la utilización de motores de enfriamiento más eficientes y de menor emisión de CO2”, señala Cristián López Urbina, gerente de la Unidad Cloud de In Motion.
Aspectos como la sustentabilidad y la eficiencia energética son clave, si consideramos que los costos de la energía crecen cada vez más. Esto se incrementa todavía más en equipos de TI heredados. En este sentido, y para garantizar que se cumple con los estándares, existe una certificación llamada “centro de datos de bajo consumo”.
En el caso de Fujitsu, para poder obtenerla, la compañía brinda una oferta integral de evaluación y certificación, proporcionando datos sobre eficiencia energética. Este servicio consiste en una primera inspección basada en “comprobación de consumo”, para luego evaluar el ahorro de energía, lo que proporciona información más completa del desempeño del centro de datos.
Otro elemento clave para garantizar eficiencia energética en un centro de datos son los servidores. En este ámbito, Fujitsu cuenta con servidores optimizados para lograr eficiencia. "Desarrollados en Alemania luego de una selección de componentes, todo está dirigido a proporcionar un mínimo consumo de energía y al mismo tiempo ofrecer el mejor desempeño de cómputo. En este sentido, también existen servidores que utilizan componentes de alta eficiencia, tecnología de refrigeración sofisticada y herramientas de administración de energía de alta calidad”, detalla Yamashita, gerente de Fujitsu Chile.
“Los servidores pueden apoyar así una gama más amplia de temperaturas y el riesgo de tiempos de inactividad relacionados con el calor gracias a un diseño térmico avanzado. Para el futuro, ya se trabaja en tecnologías para mejorar aún más la refrigeración de los centros de datos, mediante la tecnología de enfriamiento líquido”, agrega.
Héctor Zapata, subgerente de Entel, destaca que es vital el cumplimiento de normativas, que se refieren principalmente a temas de emisión de particulado por el funcionamiento de los motores eléctricos, y la aislación de ruidos de éstos, de la eficiencia energética, que va un poco más allá de lo que exige la legislación existente. “Respecto del primer punto, esto se soluciona con filtros adecuados e insonorización, y para ellos existen tecnologías maduras y conocidas en la industria. Sin embargo, en Entel nos preocupa la eficiencia energética y para ello se debe estar siempre revisando qué tecnologías están disponibles, principalmente en climatización, debido a su gran impacto en el consumo eléctrico. Adicional a esto, una tendencia actual es minimizar el uso de la energía optimizando el uso de servidores dentro de la sala. Para ello existen diversas estrategias que van desde el comisionamiento (apagado de equipos en desuso, los cuales pueden llegar a representar un gran porcentaje dentro de las salas de datos), hasta proyectos de consolidación, virtualización y uso de infraestructuras en la nube”, explica.
Diego González, gerente general de Defontana, indica que las nuevas tecnologías, como la infraestructura hiperconvergente, microservicios y contenedores, demandan más energía por rack, lo que, a su vez, requiere nuevas configuraciones y diseños.
Además, las nuevas pautas de temperatura y humedad también impactan en el diseño con diferentes límites de los centro de datos, por ejemplo, con un enfoque modular que impide el sobredimensionamiento y permite satisfacer diversos niveles de demanda. “No obstante, el tema de la eficiencia energética es un desafío permanente, la cual requiere de una mejor planificación. Se requieren métricas más holísticas para mejorar la eficiencia y conocer el consumo de kWh; no sólo medir el consumo de electricidad, sino también el consumo de agua y la cantidad de calor. Por otro lado, la tendencia se incrementa cuando se trata de energías renovables o verdes. Los centros de datos se están comprometiendo en ese ámbito. Lo mismo ocurre con la refrigeración líquida que se está promoviendo por sus múltiples beneficios, entre ellos, la posibilidad de implementarla en áreas específicas, como por ejemplo, por fila y estante; además, es muy segura”, manifiesta González.
Sergio Rademacher, gerente corporativo de SONDA, explica que el principal indicador de eficiencia energética de un data center es el PUE (Power Usage Effectiveness), medida creada por Green Grid. Es una variable para determinar la eficiencia energética de un centro de datos, que se obtiene al dividir la cantidad de energía que consume un centro de datos por la energía utilizada para operar la infraestructura de cómputo del centro de datos. Por lo tanto, el PUE se expresa como un ratio, donde la eficiencia es mayor a medida que el cociente se acerca a uno. “Por ejemplo, de acuerdo a Uptime Institute, un datacenter típico tiene un PUE de cerca de 2.5. Algunos factores clave para tener un buen PUE son la ubicación del centro de datos (por ejemplo, en ciudades muy calurosas o en sectores apartados donde lograr continuidad de provisión eléctrica será más difícil alcanzar un PUE bajo); infraestructura integral (por ejemplo, con arquitectura alineada con normas LEED, sistemas auto sustentables, etc.); arquitectura de cómputo (para hacerla más eficiente); aislación; diseño modular de las salas de servidores; sistemas de alimentación ininterrumpida; y herramientas de administración de las cargas de cómputo eficientes”.
Además, es posible hacer un benchmark del desempeño actual del centro de datos usando el ecualizador del DCMM (Modelo de Madurez de los Centros de Datos), desarrollado por Green Grid, que permite mejorar el PUE. Este modelo se enfoca directamente en los principales componentes de un data center, es decir, energía, enfriamiento, redes, almacenamiento y cómputo.
Finalmente, Rodrigo Acevedo, gerente general de Entersoft, agrega que se debe considerar también en caso de catástrofes naturales, la ubicación del centro de datos. “La infraestructura de red del proveedor de servicios debe ser capaz de brindar agilidad y ser capaz de soportar los requerimientos que el negocio plantea, junto con entregar la seguridad para crecer con las necesidades y el desarrollo de la empresa. Optimizando y virtualizando nuestra red, se puede lograr la eficiencia energética que podemos estar buscando, al igual que la movilidad y conectividad con distintos dispositivos y en el lugar en que nos encontremos”, concluye.
Investigue más sobre Arquitectura de centros de datos
-
El enfriamiento líquido refresca la demanda energética de la IA
-
Claves para gestionar el agua de forma eficiente en los centros de datos
-
Siemens: La tecnología permite lograr la sustentabilidad en la industria
-
La visión de sustentabilidad en los centros de datos fortalece las oportunidades del nearshoring