Você sabe como reduzir o consumo de energia dos data centers?
Paulo de Godoy, country manager da Pure Storage no Brasil
Com as mudanças climáticas que se tornaram constantes, especialmente nos meses de temperaturas mais altas, o desafio de manter os data centers frios se torna mais complexo, caro e com grande consumo de energia. A alta demanda está afetando infraestruturas de outras indústrias, e com o crescente aumento do volume de dados, os líderes precisam tomar decisões estratégicas para manter o desempenho tecnológico de forma consciente.
Para os profissionais do universo do armazenamento e processamento de dados, é só mais um desafio. Qualquer gerente de data center já está acostumado – é preciso equilibrar o consumo eficiente de energia e temperaturas com a resposta às necessidades dos negócios. Embora haja muitas tecnologias de ponta que podem ajudar com componentes de resfriamento nem sempre são de fácil implementação ou de adaptação aos data centers existentes. Felizmente, existem algumas estratégias pragmáticas e sustentáveis a serem exploradas como parte de uma solução completa.
Circulação contínua do ar frio
Pode ser óbvio, mas um bom ar-condicionado deve ser um dos pilares de todos os data centers. É preocupante saber que qualquer instalação precisa recorrer a mangueiras para garantir que os sistemas de HVAC – Aquecimento, Ventilação e Ar-Condicionado possam lidar com isso, como aponta a matéria da Bloomberg. Para quem tem a opção, a construção de data centers em climas mais frios pode ajudar bastante a reduzir a carga de refrigeração. Claro que, para muitos, esta não é uma opção prática.
Garantir que os sistemas HVAC tenham uma fonte de alimentação estável é uma condição básica. Para a continuidade dos negócios e planejamento de contingência, os geradores de reserva são uma precaução necessária para as tecnologias de resfriamento, assim como recursos computacionais e de armazenamento. Os planos de continuidade de negócios e recuperação de desastres já devem incluir provisões para o que fazer se a energia (incluindo a energia de reserva) for interrompida.
Se as temperaturas aumentam, vale a pena usar um hardware mais durável e confiável. O armazenamento em flash, por exemplo, é capaz de lidar muito melhor com aumentos de temperatura do que as soluções de disco mecânico. Isso significa que os dados permanecem seguros e o desempenho permanece consistente, mesmo a altas temperaturas.
Como reduzir o consumo de energia?
Aqui estão três estratégias que os líderes das empresas de TI precisam considerar. Quando combinadas, podem ajudar a reduzir os requisitos de energia e resfriamento dos data centers:
• Soluções mais eficientes. Cada peça d•e hardware utiliza energia e gera calor. As empresas precisam de equipamentos que possam fazer mais em um data center menor, o que consequentemente ajuda a manter as temperaturas baixas e reduzir os custos de resfriamento. Cada vez mais, os decisores de TI estão considerando a eficiência energética ao selecionar o que vai em seu data center. No mundo de armazenamento e processamento de dados, por exemplo, as principais métricas que estão sendo avaliadas agora incluem capacidade e desempenho por watt. Com o armazenamento de dados representando uma parte significativa do hardware nos data centers, a atualização para sistemas mais eficientes pode reduzir significativamente a potência total e a refrigeração de todo o data center.
• Arquiteturas desagregadas. Vamos pensar agora no armazenamento direto e sistemas hiperconvergentes. Muitos fornecedores falam sobre a eficiência da combinação de sistemas de computação e armazenamento em HCI (infraestrutura hiperconvergente). Isso é justo, mas essa eficiência tem a ver principalmente com implementações rápidas e redução do número de equipes envolvidas na implementação dessas soluções. Isso não significa necessariamente eficiência energética. Na verdade, há um grande desperdício de energia de sistemas de armazenamento direto e hiperconvergentes.
Por um lado, as necessidades de computação e armazenamento raramente crescem ao mesmo ritmo. Alguns líderes acabam sobrecarregando os suprimentos do lado computacional da equação a fim de atender às suas crescentes necessidades de armazenamento. Ocasionalmente, o mesmo acontece do ponto de vista do armazenamento, e em ambos os cenários, muita energia é desperdiçada. Se o cálculo e o armazenamento forem separados, é mais fácil reduzir o número total de componentes de infraestrutura necessários e, portanto, reduzir também as necessidades de energia e refrigeração. Além disso, o armazenamento diretamente ligado e as soluções hiperconvergentes tendem a criar silos de infraestrutura. A capacidade não utilizada em um cluster é muito difícil de disponibilizar para outro cluster e isto gera suprimentos além da necessidade e desperdício ainda maior de recursos.
• Expandir na hora certa. A abordagem legada do preparo da infraestrutura com base nas exigências dos próximos 3 a 5 anos não é mais adequada. Isso significa que as empresas acabam administrando muito mais infraestrutura do que precisam imediatamente. Em vez disso, modelos modernos de consumo sob demanda e ferramentas de implementação automatizada permitem que as empresas ampliem facilmente a infraestrutura em seus data centers ao longo do tempo, assim que precisarem – e não fica ali parada “caso seja necessária”. Isso também evita a necessidade de alimentação e refrigeração de componentes que não serão necessários por meses ou mesmo anos.
Na maioria das vezes, manter os data centers frios depende de um ar-condicionado confiável e de um sólido planejamento de contingência. Mas em todas as instalações, cada fração de um grau que a temperatura aumenta é também um aumento fracionário do stress sobre o equipamento. Os sistemas de resfriamento aliviam esse estresse de racks e stacks, mas nenhum líder desse departamento quer colocar esses sistemas sob mais estresse – que é o que as recentes ondas de calor têm feito.
Por isso, as medidas para reduzir o volume dos equipamentos e a geração de calor devem vir em primeiro lugar. Se podemos reduzir os custos operacionais, simplificar e resfriar os data centers e reduzir nosso consumo de energia – tudo ao mesmo tempo – então podemos dizer que o caminho para a TI Sustentável está aberto para as empresas que souberem trilhá-lo.
Paulo de Godoy tem 20 anos de experiência no mercado de TI, com foco em vendas de soluções para empresas de armazenamento, segurança, integração e interconectividade. O executivo ocupou cargos de liderança em empresas de destaque no setor tecnológico, como Hitachi, IBM e NetApp. Paulo iniciou as atividades na Pure Storage como gerente de vendas em 2014, e em 2016 assumiu a gerência geral da companhia no Brasil.