A evolução das aplicações e a infraestrutura para data centers
Impulsionada pelo uso mais intenso de recursos como assistentes virtuais e reconhecimento facial, a inteligência artificial está literalmente reconectando as arquiteturas dos data centers.
Não é segredo que a quantidade de dados que entra e circula no data center aumenta consideravelmente a cada ano. Por si só, este fato força os gerentes de rede a repensar tudo, desde o sistema de fibra externa até as topologias de rede usadas para movimentar, rotear e distribuir petabytes de dados. Ao mesmo tempo, a própria natureza dos dados também está mudando rapidamente. A tendência de mais aplicações de clientes que exigem desempenho ultraconfiável, latência ultrabaixa e mais recursos de processamento levanta a questão sobre a definição do que um data center é ou precisa ser. O resultado é uma dicotomia interessante.
Por um lado, a mudança para um ambiente virtualizado na nuvem e mais eficiente permite que os data centers tirem vantagem das economias em escala. Ao agrupar equipamentos ativos em uma estrutura centralizada (não muito diferente de uma rede móvel C-RAN), os data centers podem reduzir substancialmente o consumo de energia, os serviços de manutenção e melhorar outras eficiências operacionais.
Por outro lado, uma grande entrada de dados ultraconfiáveis com latência ultrabaixa de aplicações para fins de automação de manufatura, veículos autônomos e telecirurgia, por exemplo, exige que os recursos de computação fiquem localizados mais próximos dos dispositivos e das pessoas que produzem e consomem os dados. Essa tendência exige que os equipamentos mais ativos sejam levados para a “borda”. Mas o que isso significa? Onde exatamente a borda está localizada? A resposta estará relacionada ao desempenho de latência que essas novas aplicações exigem.
Segundo o Gartner, para entender e abordar adequadamente a metamorfose que está ocorrendo, comece com os requisitos de carga de trabalho dos dados –não a composição física atual do cenário do data center. Em outras palavras, o papel da TI não é projetar, implantar e manter data centers; seu trabalho é satisfazer os diferentes requisitos de carga de trabalho das várias aplicações e clientes da maneira mais econômica e sustentável possível. A forma deve seguir a função, e não ditá-la. Então, vamos ver as aplicações que já estão moldando o futuro da arquitetura do data center.
Impulsionada por uso mais intenso de recursos, como assistentes virtuais e reconhecimento facial, a inteligência artificial (IA) e seus derivados estão literalmente reconectando as arquiteturas do data center. Os algoritmos complexos necessários para executar essas aplicações são desenvolvidos e modelados profundamente no núcleo do data center e, em seguida, enviados para os nós na borda. Ocasionalmente, os dumps de dados da borda são enviados de volta ao núcleo e usados para refinar o algoritmo antes de serem colocados de volta na borda. Enquanto o ciclo de melhoria contínua/implantação contínua (CI/CD) se repete com sucesso, os algoritmos e as aplicações se tornam mais eficientes.
Esse fluxo de dados entre a borda e o núcleo depende de onde a carga de trabalho precisa estar para processar e fornecer as informações com mais eficiência. As cargas de trabalho, por sua vez, estão sendo impulsionadas devido à implementação da internet das coisas na borda, automação industrial e futuras aplicações, ainda desconhecidas.
É nesse ambiente complexo que os gerentes e arquitetos de rede devem planejar e implementar as infraestruturas da camada física necessárias para conectar e dar suporte a esses ecossistemas nos próximos anos. Com a adoção de IA, aprendizado de máquina (ML) e Deep learning em ascensão, é fundamental entender a infraestrutura em detalhes.
Como os algoritmos estão cada vez mais rápidos e precisos, essas tecnologias vão se expandir ainda mais. A infraestrutura certa permitirá isso, pois vai minimizar o impacto no ecossistema e evoluir com o tempo sem ter que modificar as ferramentas de toda a rede. O desafio é que o ambiente muda de maneira tão rápida que nós, como a indústria, estamos, em muitos aspectos, tendo que adaptar o avião enquanto voamos.
Mas não estamos voando às cegas; conhecemos alguns dos obstáculos imediatos que precisamos superar. Por exemplo, já estamos vendo implantações iniciais de AI e ML forçando os requisitos de velocidade de redes dos servidores para 200 Gigas ou mais. Sabemos que os fabricantes de switches estão preferindo os novos conectores MPO16 que suportam oito lanes com interconexões de 16 fibras. Atualmente esse é um potencial de 800G por transceptor de rede ou, talvez, oito servidores se conectando a 100G a partir de um único transceptor. Mais portas significa mais capacidade por switch – e isso reduz o custo e o consumo de energia.
Hoje, um switch de alto radix suporta 256 portas a 100G por porta, totalizando 25,6T de capacidade. Se forem implantados na borda, esses switches fornecem a mesma largura de banda que vários modelos da geração anterior. Mais do que suficiente para a conexão de um grande número de servidores ou dispositivos. A adição de um segundo switch na borda fornece a redundância e a capacidade de cinco ou seis switches de modelos mais antigos. E o mais importante, ele permite que o data center crie a capacidade de borda necessária para suportar o loop CI/CD essencial para aperfeiçoar os algoritmos de AL e ML.
Um grande desafio é que a largura de banda é finita e cara; portanto, os gerentes de rede devem priorizar quais informações precisam ser canalizadas de volta ao core e quais podem permanecer na borda. Até a definição da localização da borda pode ser difícil. Para um hyperscale, a borda pode estar em um MTDC, gabinete externo ou instalação de manufatura localizada a quilômetros do core. A variedade de cenários de implementação e os requisitos de largura de banda determinam as capacidades e as configurações da infraestrutura.
Implicações para a infraestrutura de rede
A adaptação aos novos requisitos do core até a borda significa que as infraestruturas de rede devem se tornar mais rápidas e flexíveis. Já estamos vendo como as velocidades de 400G e superiores estão afetando as arquiteturas de rede. A partir de 400G, mais aplicações estão sendo projetadas para cabeamento de 16 fibras. Isso está provocando uma mudança da conectividade tradicional baseada em “quad” para design “octal” construído em breakouts MPO de 16 fibras. Uma configuração de 16 fibras dobra o número de breakouts por transceptor e fornece suporte de longo prazo de 400G a 800G, 1.6T e superior. Considere o design de 16 fibras, incluindo transceptores correspondentes, cabos de trunk /array e módulos de distribuição, para que este seja o elemento básico das conexões mais rápidas entre o core e a borda.
Ao mesmo tempo, os data centers precisam de mais flexibilidade em sua arquitetura quando se trata de redistribuir a capacidade de fibra e responder a mudanças na alocação de recursos. Uma maneira de fazer isso é desenvolver modularidade embutida nos componentes do painel. Um projeto no qual todos os componentes do painel são essencialmente intercambiáveis e projetados para caber em apenas um painel permite que projetistas e instaladores reconfigurem e implementem a capacidade de fibra com rapidez e menor custo. Desta forma, o data center também pode simplificar o inventário de infraestrutura e os custos associados.
As tecnologias e as aplicações da próxima geração surgem com o desenvolvimento de eficiência e recursos. Quando consideramos reequipar milhares de data centers de grande porte para fornecer esse nível de flexibilidade e alta eficiência, torna-se fundamental acertar desde o primeiro dia. As bases da infraestrutura precisam estar prontas antes de avançarmos; caso contrário, as infraestruturas que deveriam permitir o crescimento acabam impedindo essa expansão. Isso não significa que precisamos ter 100% das capacidades necessárias desde o início. Mas precisamos entender como é a estrutura, para construir o que é necessário, onde é necessário e até mesmo antes que se torne necessário.
Sobre o autor: Luís Domingues é o engenheiro sênior responsável pela área de engenharia de sistemas da CommScope para o Brasil.