Sete soluções para os maiores desafios da IA na cibersegurança
Paulo de Godoy, country manager da Pure Storage no Brasil
À medida que a IA – inteligência artificial ganha cada vez mais popularidade e amplia a forma como trabalhamos, há uma área na qual ainda precisamos ter muita cautela: a segurança cibernética. A IA pode apoiar a proteção? Certamente, mas também pode ajudar os cibercriminosos. Nas mãos das pessoas erradas, esses recursos podem ajudar a identificar vulnerabilidades e explorar caminhos de forma mais rápida para lançar ataques ou violar defesas. É uma faca de dois gumes e, à medida que aprendemos a manejá-la, aqui estão alguns pontos a considerar ao lidar com os desafios da aplicação de IA à segurança dos dados.
1 – Não descarte o elemento humano da segurança cibernética
A IA pode resolver alguns problemas de forma mais rápida do que os humanos, mas ainda não está totalmente sob controle. E, enquanto o elemento humano for fundamental na implementação, esse fator também abre portas para vulnerabilidades que a IA não consegue resolver.
Em alguns casos, como modelos de treinamento, podem até ser influenciados por erros. Pior: a IA pode até gerar mais complexidade para o gerenciamento humano. À medida que aumentam os ataques baseados ou gerados por IA, treinar pessoas para identificá-los e aplicar medidas de segurança torna-se cada vez mais desafiador.
2 – IA não é uma solução mágica – cuidado com a falsa sensação de segurança
A segurança é uma história sem fim e em constante evolução. Assim como uma empresa com experiência em segurança evolui, os invasores e desenvolvedores de malware fazem questão de modernizar suas ferramentas e táticas todos os dias. Embora a IA tenha se tornado uma importante ferramenta na sua caixa, ela também está na deles.
As empresas precisam ter esse mesmo cuidado com suas práticas, adotando novas ferramentas e tecnologias e aplicando uma abordagem de segurança em vários níveis para se manterem atualizadas. A IA deve fazer parte desse esforço, mas não é o todo.
3 – IA é mais reativa do que proativa
A própria natureza dos modelos de aprendizagem e do reconhecimento de padrões é reacionária – é uma ferramenta poderosa quando se trata de detecção de anomalias e de discrepâncias comportamentais que podem indicar uma violação ou um invasor à espreita. No entanto, essa aplicação é frequentemente rotulada como proativa.
Tecnologias e processos amplos e proativos de segurança ajudam a construir uma postura defensiva mais robusta, que é crucial quando os cibercriminosos estão sempre aprendendo novas maneiras de escapar dessa detecção reativa.
A reativa é importante, mas, para ser eficaz, uma estratégia de segurança deve abranger o antes, o durante e o depois de uma violação. Isso significa boa higiene de dados, gerenciamento de patches, autenticação multifatorial, análise rápida de registro consistente e muitos treinamentos e exercícios práticos para garantir que os objetivos de recuperação sejam exaustivamente testados e possam ser executados com sucesso quando for necessário.
4 – De olho nos modelos, inteligência artificial é um reconhecimento avançado de padrões. Mas e se algum valor atípico gerar respostas erradas porque os modelos não evoluem?
O problema é que os usuários de rede corporativa geralmente são bastante previsíveis. Os modelos aprendem isso com o tempo, mas isso significa que quaisquer irregularidades podem, na verdade, introduzir problemas no ambiente de segurança, em vez de resolvê-los. Um exemplo disso pode ser um sistema que reage e modifica regras de firewall de forma dinâmica, bloqueando usuários legítimos do sistema.
Ainda é necessário um sólido grau de revisão prática, especialistas para fazer um double check, uma grande quantidade de dados para filtrar falsos positivos e, ao mesmo tempo, monitorar o modelo ao longo do tempo.
5 – Criar uma aprendizagem supervisionada
Confiar demais na IA como parte de um sistema de segurança capaz de influenciar e transformar pode trazer à tona preocupações importantes em torno da IA e da sua predisposição a erros. Por definição, esses sistemas podem criar regras de sim/não de forma dinâmica, com base no que consideram “padrões” ou “valores discrepantes”. Isso significa que a ferramenta pode fazer alterações que você não pretende, proteger excessivamente um sistema ou tornar um sistema pouco seguro. Uma ligeira anomalia no comportamento do usuário pode causar um bloqueio, mesmo para os usuários remotos.
Esses tipos de ajustes baseados em modelos podem ser ainda mais difíceis de determinar, localizar ou reverter do que os ajustados por humanos. Um ponto ainda mais preocupante é se suas permissões ou regras de acesso forem complexas, a IA poderá não conseguir distinguir entre exceções e anomalias.
6 – A criticidade da intervenção humana e da lógica
A aprendizagem supervisionada reintroduz o elemento humano nos modelos, o que nos leva de volta ao ponto nº 1: os humanos precisam fazer parte da equação e precisam ser capazes de interagir com a IA como usuários, mas também como um dos aspectos mais importantes da segurança – precisam andar de mãos dadas.
O que é um resultado bom ou ruim? Quando a IA deve agir? Embora não seja sensato deixá-la funcionar inteiramente por conta própria, você corre o risco de reintroduzir conceitos preconcebidos ou gerar mais vulnerabilidades ao intervir.
Não podemos confiar totalmente na IA ou presumir que ela nos dá uma imagem completa e precisa. Um ser humano terá que entender as informações para tomar a decisão certa e com cautela.
7 – O essencial para a assertividade da detecção de anomalias em grande escala
É necessário uma quantidade imensa de dados para executar o reconhecimento avançado de padrões. Para encontrar a agulha no palheiro, os dados devem vir de diversas fontes. Não se trata apenas do volume, mas também da amplitude a partir da qual os dados devem ser recolhidos e analisados.
Muitas empresas subestimam isso, fazendo com que a IA como ferramenta de segurança esteja longe de estar pronta para uso. As plataformas de dados devem oferecer visibilidade, simplicidade e escala a níveis incríveis para atender a essas demandas.
Conclusão
Embora a IA possa não resolver todas as preocupações de segurança de dados, uma plataforma de armazenamento de dados projetada para resiliência pode, principalmente uma que ofereça recuperação antes e depois que a IA detecte algo.
É fundamental que os líderes reflitam sobre isso agora, já que essas plataformas analíticas e de IA para ingestão e correlação de maior volume potencializam a detecção de ameaças e análises forenses com insights rápidos para que você possa conter invasores antes que eles implementem malware. Também é fundamental garantir a proteção dos dados com total imutabilidade e com controles de acesso rígidos e recuperação de dados rápida e granular.
Paulo de Godoy tem 20 anos de experiência no mercado de TI, com foco em vendas de soluções para empresas de armazenamento, segurança, integração e interconectividade. O executivo ocupou cargos de liderança em empresas de destaque no setor tecnológico, como Hitachi, IBM e NetApp. Paulo iniciou as atividades na Pure Storage como gerente de vendas em 2014, e em 2016 assumiu a gerência geral da companhia no Brasil.