DCIM: Ambientes automatizados e cada vez mais inteligentes
As versões mais recentes dos sistemas para gerenciamento de infraestrutura de data centers ganharam novos recursos e a tendência é que antecipem falhas e promovam a crescente automação das operações.
Verônica Couto, colaboradora da Infra News Telecom
As versões mais recentes dos sistemas para gerenciamento de infraestrutura de data centers, ou DCIM, na sigla em inglês, ganharam recursos para atuar de forma autônoma e acompanhar também ativos de TI, além dos dispositivos tradicionais de facilities. A tendência é que eles, ainda, antecipem falhas e promovam a crescente automação das operações.
A expansão de plataformas híbridas deu destaque à tecnologia de DCIM, que evolui em versões edge, sem fio, ou baseadas em IA – inteligência artificial para gerir de forma integrada a diversidade de modelos de processamento de dados. Antes da crise sanitária da Covid-19, o relatório “Data Center Infrastructure Management Market 2019-2024”, da Mordor Intelligence, empresa de consultoria e inteligência de mercado, já previa faturamento global com sistemas DCIM (somente software) de US$ 1,5 bilhão, em 2020, e de US$ 2 bilhões, em 2021.
No Brasil, a estimativa era de US$ 25 milhões e de US$ 30 milhões, respectivamente, no mesmo período. “Com a pandemia, home office, digitalização, IoT – Internet das coisas, IA, contudo, temos razões para acreditar que os valores devem aumentar consideravelmente”, diz o presidente da Specto Tecnologia, Leônidas Vieira Júnior. Desde a década de 1990, a Specto desenvolve e fornece soluções de hardware, software e serviços de TI.
Fabrício Costa, diretor técnico e sócio da integradora Zeittec, pontua que os DCIMs “entraram” nos ativos de TI, monitorando um nobreak e, ao mesmo tempo, servidores, fontes, disponibilidade de ativos para o rack, etc. Segundo ele, os produtos da segunda geração, além de monitorar, tomam decisões. E os da terceira, incorporam o ambiente de TI, com servidores, cabeamento, dados de performance de máquinas, latências, entre outros.
“Em comparação ao cenário de quatro anos atrás, o custo caiu e cresceram tanto a capacidade de automação quanto a compatibilidade para conectar equipamentos independente do fabricante”, acrescenta o executivo. A Zeittec constrói data centers em regime turnkey, com soluções que vão desde a elaboração do projeto e a análise de riscos até o moving dos equipamentos ativos.
Um relatório do Gartner, de setembro de 2020, projetou que cerca de 85% das infraestruturas utilizarão uma solução integrada de on-premises, co-location, cloud e edge até 2025. “O DCIM continuará relevante para os setores que manterão seus data centers locais”, explica Gustavo Côrrea Brandão, diretor de Informática da UERJ – Universidade do Estado do Rio de Janeiro.
Para ele, é provável que os data centers locais se tornem nuvens privadas que, em conjunto com nuvens públicas, passem a ser encarados pelos usuários como uma única nuvem ‘corporativa’, sendo transparente onde os processos realmente são realizados. “Isso resultará na necessidade de incorporação de mecanismos específicos para administração de ambientes híbridos, simulando um único data center.”
Ambientes autônomos e edge
Embora ainda existam ambientes com centenas de racks, Costa, da Zeittec, observa que é cada vez mais comum a opção por vários data centers menores. “A tendência são ambientes autônomos, cada vez mais confiados ao DCIM, que se torna parte da missão crítica. Assim, mesmo com o NOC a milhares de quilômetros, é possível enxergar os parâmetros e providenciar determinadas ações.” Para isso, são importantes as tecnologias de IA, IoT e machine learning, especialmente no consumo de energia, promovendo alterações em tempo real de parâmetros de controle do PUE (indicador de eficiência energética).
Vieira Júnior, da Specto, lembra que a aplicação de IA melhorou em 40% a eficiência energética do data center do Google. O executivo também cita uma pesquisa, de março do ano passado, da Internap Corporation (Inap), empresa norte-americana de serviços de data center e cloud, que mostrou que 81% dos líderes de TI acreditavam na automação por IA na maioria das atividades de data center até 2025.
De acordo com ele, versões edge de DCIM começam a responder, entre outras, a questões como: Quem está acessando meu equipamento ou rack? Quando e como substituir as baterias do UPS remoto? O que fazer se faltam técnicos (especialistas) em infraestrutura no local? A qual alerta reagir primeiro?”, exemplifica.
A própria Specto prepara o lançamento da versão edge do seu sistema de gerenciamento DataFaz até o final do ano. A solução será baseada em IoT, SBC – Single Board Computer e computação distribuída. O sistema deve cobrir o monitoramento ambiental, a gestão de ativos, de facilities, energia e segurança física, de forma simplificada, econômica e autônoma. “Podem estar integrados ao DCIM principal ou ‘mestre’, seja na forma on-premises, seja como SaaS – software como serviço. Cada DCIM edge reporta informações ao principal, recebe comandos e configurações, de maneira que tenhamos uma base de informações centralizada e segura. Mas deve permitir acesso direto de um gestor local, independente do DCIM principal.”
Basicamente, o DataFaz é uma plataforma de gerenciamento composta por software, hardware e serviços, capaz de gerenciar em tempo real a infraestrutura e o funcionamento do data center, incluindo as camadas física (infraestrutura, ambiente, energia, segurança) e de TI e aplicações (gestão de espaços e de ativos, simuladores, atuadores, gráficos, análises e alarmes). Tudo numa única ferramenta.
Casos de uso
O UnitedHealth Group Brasil, empresa norte-americana especializada em cuidados com a saúde e que controla o Hospital Samaritano de São Paulo, usa ferramentas homologadas pelo seu time de segurança da informação e infraestrutura global para monitorar ambientes e sistemas de missão crítica. São cerca de 10 Tb de dados mensais produzidos pelas soluções e equipamentos em ambiente híbrido (nuvem e on premises) do Samaritano, segundo o diretor de tecnologia para hospitais do UGH Brasil, Alex Julian.
Entre os benefícios, diz, estão o “atendimento proativo, melhorando a gestão e resolução de incidentes (sejam críticos ou de menor prioridade), avaliando possíveis ações de invasão dos sistemas monitorados, e garantindo disponibilidade superior a 99%.”
Ele acrescenta que esses sistemas permitem à companhia atuar de forma preventiva, tomando as decisões corretas em caso de alertas de falhas e planos de ação e controlando a disponibilidade dos sistemas e serviços. Estão nos planos do Samaritano investir ainda mais na capacitação do time de monitoramento e em novas ferramentas para gestão, além de soluções de automação.
Quando questionado sobre quais são as estratégias mais avançadas e recomendadas para o gerenciamento de data centers, o executivo ressalta a importância do monitoramento de performance das aplicações, considerando também os itens “dentro” da rede da empresa que podem gerar qualquer tipo de interferência/atraso na aplicação ou serviços de TI.
A UERJ adota uma estratégia híbrida de monitoramento que combina o DCIM tradicional a recursos da hiperconvergência, para armazenar centenas de terabytes de dados gerados pelas atividades de ensino, pesquisa e extensão. “Dezenas de servidores individuais foram convertidos em clusters hiperconvergentes, com ganhos de espaço, processamento, escalabilidade e consumo energético”, conta o diretor de informática da instituição. Os tempos para recuperação e entre falhas também foram reduzidos e os procedimentos para distribuição do consumo de recursos e identificação de problemas, simplificados.
Uma outra vantagem apontada por Brandão é que, com os protocolos de trabalho estabelecidos, as equipes da instituição conseguiram dedicar mais tempo a atividades de planejamento. “A conversão do modelo presencial para o remoto foi feita em um ambiente de trabalho cooperativo, o que garantiu um fluxo contínuo das tarefas, mesmo em tempos de pandemia”, acrescenta.
Ele destaca que tecnologias como a IoT trouxeram novos desafios à área de infraestrutura das companhias. Por isso, é preciso adaptar os data centers para garantir as expectativas de nível de serviço, além de conectividade, disponibilidade, confiabilidade e segurança para os usuários. “São tarefas árduas e que sem a adoção de ferramentas de controle e gestão são impossíveis de realizar”.
Para o diretor, um mecanismo de gestão de infraestrutura de data center, independente da solução adotada, deve ser capaz de gerenciar os ativos com dados detalhados sobre as configurações do parque instalado, monitorar a capacidade instalada para identificar o consumo de recursos, incluindo climatização, energia, etc., e identificar ameaças físicas ou virtuais. “Um bom sistema DCIM deve ser compatível com vários protocolos, gerar relatórios pré-definidos ou customizáveis, e ter ferramentas estatísticas.”
Ele recomenda, ainda, a integração com softwares de CAD – Computer Aided Design em data centers de grande porte ou que atuam com serviços de hospedagem, onde há necessidade de controle da localização física do equipamento. São funcionalidades que permitem ao gestor “acompanhar determinados assuntos de acordo com sua demanda sazonal ou específica e, complementarmente, construir projeções sobre consumo ou crescimento”.
A Universidade pretende modernizar o modelo de controle da gestão do seu data center. O objetivo é que o sistema tenha uma melhor integração e possibilite a análise remota dos dados por órgãos externos especializados para identificar as estratégias relacionadas à evolução contínua da infraestrutura.