Cómo la evolución de la virtualización redifinió los centros de datos eficientes
En el espacio de pocos años, la virtualización se ha convertido en la manera de hacer las cosas en un centro de datos eficiente.
La evolución de la virtualización ha afectado a los centros de datos eficientes de todos los tamaños. En un abrir y cerrar de ojos, la virtualización se ha transformado de una tecnología táctica que las empresas adoptaban para ahorrar espacio, refrigeración y energía –esencialmente para hacer más con menos– en una estrategia corporativa que respondió a las demandas del negocio.
La virtualización ha existido por muchas décadas. En el principio había muchos detractores y escépticos. Pero en los últimos 10 años, la demanda del cliente y la maduración de la plataforma de hardware x86 ha creado una "tormenta perfecta". En el espacio de solo pocos años, la virtualización se convirtió en la manera de hacer las cosas en un centro de datos eficiente. Como consecuencia de ello, las empresas comenzaron a adoptar políticas de "virtualización primero".
La evolución de la virtualización: Empezando desde unos modestos inicios
A partir de comienzos relativamente modestos, la virtualización fue introducida a finales de 1990 en forma de máquinas virtuales (VM) en las PC. Uno de los primeros en hacer esto fue VMware Workstation, que fue visto en su momento como la tecnología para geeks y desarrolladores que querían ejecutar múltiples sistemas operativos en las computadoras sin la necesidad de complicados arranques duales.
Pero el verdadero ímpetu para la virtualización de servidores fue la demanda de los clientes. Durante años, los departamentos de TI se habían restringido por la creencia de que cada aplicación o servicio debía tener un solo sistema operativo.
Esto condujo a la proliferación de servidores en los centros de datos, hasta el punto de que pocas organizaciones incluso sabían cuántos tenían o dónde estaban ubicados. De hecho, los ejercicios de tempranos de planificación de la capacidad para procesos que pasan de físicos a virtuales, mostraron que hubo servidores en la red que algunas personas ni siquiera sabían que existieran.
Hoy en día, está de moda hablar de la expansión de VM. Es increíble que nos hayamos olvidado de la situación que a menudo era diez veces peor: la expansión de las máquinas físicas.
Cómo hacer frente al crecimiento
En la década pasada, los límites físicos empujaron los centros de datos rápidamente hacia una pared de ladrillos a medida que las empresas luchan para hacer frente al crecimiento sin control. Tal fue el caso de la capacidad del centro de datos.
Las organizaciones se estaban literalmente acabando el espacio físico, la energía física y el enfriamiento físico. La construcción de un nuevo centro de datos era un gasto presupuestario que muchas personas ya no podían acomodar. Al mismo tiempo, se desarrolló una nueva generación de hardware basado en productos comerciales que era a la vez relativamente rentable y eficiente en términos del crecimiento incremental en la densidad de memoria y caballos de fuerza en el CPU.
En un período corto de tiempo, hemos visto incrementarse la proporción de las máquinas virtuales en relación con las máquinas físicas –la proporción de consolidación del servidor– a medida que aparecen servidores más potentes cada año en el mercado por aproximadamente el mismo precio. Esto sucedió debido a –en lugar de a pesar de– la reciente ralentización de la economía global.
La evolución de la virtualización ha sacudido el mercado con su expansión, mientras que la mayoría de las áreas se han estancado o han disminuido notablemente. La razón es que, aunque la virtualización tiene costos de puesta en marcha, ahorra dinero en el largo plazo.
Aunque los términos retorno de la inversión (ROI) y costo total de propiedad se han convertido en frases vacías de marketing aplicadas a tecnologías diversas, la virtualización sigue siendo una de las pocas tecnologías que realmente cumple sus promesas para un centro de datos eficiente.
Pero no es que la evolución de la virtualización no haya tenido sus puntos de dolor, especialmente a medida que las empresas comenzaron a progresar hacia una forma más enfocada en aplicaciones de aprovechar los beneficios de las virtualizaciones. Así que, a medida que nos alejamos de los beneficios iniciales de la virtualización –consolidación de servidores, entre ellos– las empresas con centros de datos eficientes encontraron que la virtualización no siempre significa que todas las tecnologías respaldadas por la virtualización es un ganador automático en todos los casos.
El ecosistema de virtualización madura
Es solo en los últimos años que el ecosistema que rodea a la virtualización con tecnologías de apoyo realmente ha madurado. El respaldo en VM se ha vuelto avanzado en el sentido de que ahora supera al respaldo convencional al cliente (in-guest), basado en agentes.
Los escritorios virtuales siguen a la zaga
A través de la evolución de la virtualización,los escritorios virtuales son el elefante en la habitación. Los escritorios virtuales siguen siendo una herramienta importante en el arsenal de la entrega de aplicaciones a los usuarios. Aunque los expertos proclaman que cada año es el "año del escritorio virtual”, la tecnología no ha visto la adopción generalizada de alta densidad de la misma manera que lo hizo la virtualización de servidores.
Los clientes con centros de datos eficientes siguen enfrentando barreras en torno a la gestión de imágenes de escritorio virtuales, a pesar de la introducción de clones vinculados y clones rápidos habilitados por proveedores de streaming o almacenamiento. Junto a esto se encuentran los problemas endémicos con el disco de IOPS que producen los despliegues a gran escala.
A pesar de los proveedores de almacenamiento han acaparado una oportunidad de mercado para vender unidades adicionales de caché y SSD, no todos los centros de datos deciden alojar máquinas virtuales en el almacenamiento disponible más caro, solo para que sus usuarios puedan iniciar sesión y abrir Microsoft Word. La mayoría de las organizaciones más bien preferirían poner las aplicaciones de servidor que utilizan el disco de manera intensiva en ese nivel de almacenamiento, donde la relación costo-beneficio es mucho más convincente.
Las primeras promesas de recuperación de desastres virtualizada no llegaron tan rápido como muchos habían esperado. De hecho, la DR virtualizada fue uno de los casos de uso tempranos típicos para la virtualización. Pero muchas organizaciones encontraron que esta es una propuesta costosa, teniendo en cuenta que los costos de licenciamiento hicieron del DR virtual una política de seguros muy costosa que esperaban que nunca tendrían que utilizar.
Al mismo tiempo, muchas empresas se mostraron escépticas de que el software deDR virtual fuera lo suficientemente maduro como para dar cabida a la complejidad de sus necesidades. Este espacio ha comenzado a madurar ahora. La inminente reedición de SRM de VMware debe traer características de replicación integrada y conmutación por recuperación automatizada.
De manera similar, esto se convertirá en un mercado más competitivo, con empresas como VirtualSharp y Zerto enfrentándose con VMware. La competencia siempre es buena para los clientes, conduce a precios competitivos y a que las empresas eleven el juego contra sus enemigos en vez de dormirse en sus laureles.
La nube ha abierto una nueva fase de la virtualización, que añade otra capa de abstracción por encima de la capa de virtualización en sí. Del mismo modo en que los consumidores no tienen que saber cómo funciona el teléfono, a ellos no les importa cómo funciona la virtualización en la nube. La nube pretende ocultar los hipervisores, las capas de gestión, los switches virtuales y los grupos que hacen funcionar la virtualización.
En esta etapa, es difícil ver si la nube cumplirá su potencial o si va a añadir otra capa de complejidad a los entornos que administramos. Entre la evolución continua de la virtualización y las ofertas emergentes de nube, va a ser una década interesante para los profesionales de TI.