O dilúvio dos dados – Você está nadando ou afundando?
Paulo de Godoy, country manager da Pure Storage no Brasil
Em meio a uma enxurrada de dados que aumentam exponencialmente, a maioria das empresas não tem conhecimento da real quantidade de informações disponíveis, não sabe como acessá-las ou não tem uma estratégia para analisá-las de ponta a ponta para aprimorar a tomada de decisões. No entanto, elas sabem que um mundo apoiado em insights de dados inteligentes impulsiona a transformação digital, influencia as decisões de negócios em tempo real e torna a interação com o cliente mais personalizada.
É por isso que uma estratégia moderna de análise de dados é fundamental para extrair o máximo valor das informações, mas muitas empresas ainda enfrentam dificuldades para aplicá-la corretamente.
Por que investir em análise de dados?
A resposta é certeira: manter a competitividade. Um estudo recente da Pure Storage, em parceria com o ESG – Enterprise Strategy Group, revela os benefícios para as empresas que investem em analytics, em comparação com aquelas que ainda não o fazem, mostrando que as empresas com os recursos mais avançados de análise de dados estão à frente da concorrência.
Em comparação com empresas que não usam tais recursos, essas empresas tinham 3,2 vezes mais probabilidade de superar a satisfação do cliente, probabilidade 2,4 maior de aumentar a receita por funcionário nos últimos dois anos e 2,7 mais chances de reduzir o tempo de chegada do produto no mercado.
Os maiores desafios do analytics
Embora os benefícios de investir em uma plataforma madura de análise de dados sejam claros, vários deles impedem as empresas de alcançar seus objetivos.
O primeiro (e mais comum) é a performance. À medida que as arquiteturas de análise de log aumentam, o desempenho começa a se tornar mais difícil de prever, causando lentidão nas pesquisas e nos processos. Como um sistema distribuído que gerencia uma imensa quantidade de dados, grande parte do desempenho depende da capacidade do administrador de prever quais dados serão consultados. Mas, à medida que as empresas desenvolvem seus pipelines e utilizam cada vez mais dados para obter insights, fica mais difícil para os administradores preverem com precisão quais dados devem permanecer, onde e por quanto tempo.
Com o amadurecimento da plataforma analítica que ingere cada vez mais dados, a infraestrutura pode facilmente ficar sobrecarregada e os recursos de busca são afetados, resultando no “super abastecimento” da infraestrutura e redução da eficiência.
Em segundo lugar estão os problemas da natureza acoplada de computação e armazenamento que as implementações tradicionais de log de análise usam, levando a interrupções e complexidade conforme esses ambientes aumentam. Isso exige mais capacidade e os clientes são forçados a implementar recursos de computação desnecessários e a experimentar processos mais demorados que impactam os negócios.
Em terceiro lugar estão as barreiras geradas por conflitos entre as próprias equipes de TI por falta de alinhamento estratégico e compreensão das etapas de cada atividade. Muitas vezes as equipes que gerenciam e executam as aplicações de log de análise não são as mesmas que gerenciam a infraestrutura. Enquanto o primeiro grupo enfrenta o desafio de atender à demanda dos sistemas baseado em uma infraestrutura complexa, do outro lado a equipe de infra não compreende os requisitos e a dinâmica para se adaptar rapidamente às constantes mudanças. Isso acaba gerando problemas de desempenho, interrupções e esgotamento de recursos.
A necessidade de velocidade
Quando se trata de analytics a agilidade é fundamental, e por isso a tecnologia flash tem se tornado tão popular nos últimos anos. Ela permite que as empresas acelerem os sistemas distribuídos com a simplicidade de uma plataforma consolidada.
É também uma questão de escala – conseguir dimensionar capacidade, desempenho e simultaneidade em uma plataforma unificada de files rápidos e objetos (UFFO), permitindo que os arquitetos de dados usem o mesmo sistema para uma infinidade de aplicações analíticas. Isso significa que esses profissionais podem se concentrar em seus pipelines de dados em vez de desafiar a infraestrutura para conseguir executá-los.
Além disso, uma arquitetura moderna adequada para a análise de dados precisa proteger o investimento do cliente, garantindo que ele possa inovar agora e futuramente, sem gastos desnecessários. Como qualquer outra aplicação crítica para os negócios, um pipeline de análise não pode permitir o tempo de inatividade. Qualquer interrupção, planejada ou não, terá um impacto prejudicial aos pipelines e aos insights de negócios.
O bote salva-vidas do analytics
Quando se trata de análise de dados, os benefícios para os negócios são imensos e, embora os desafios persistam, o mercado traz soluções que derrubam as barreiras tecnológicas a todo momento. Então, na era do dilúvio de dados, se você sentir que está afundando, fique tranquilo. Busque soluções que se adequem a sua estratégia de negócios, esse é o seu bote salva-vidas! E se a sua empresa já utiliza recursos mais maduros de análise e você já está nadando em sintonia com os dados, a questão é somente aonde você quer chegar.
Paulo de Godoy tem 20 anos de experiência no mercado de TI, com foco em vendas de soluções para empresas de armazenamento, segurança, integração e interconectividade. O executivo ocupou cargos de liderança em empresas de destaque no setor tecnológico, como Hitachi, IBM e NetApp. Paulo iniciou as atividades na Pure Storage como gerente de vendas em 2014, e em 2016 assumiu a gerência geral da companhia no Brasil.