Analysis
A cibersegurança já não se faz apenas de atacantes e defensores humanos. A inteligência artificial tem uma componente cada vez mais forte, tanto no ataque às organizações, como na defesa das mesmas
Por Rui Damião . 07/06/2021
A Inteligência Artificial (IA) tem evoluído e, naturalmente, a sua utilização tem aumentado. Atualmente, já várias áreas do IT utilizam IA no seu dia a dia, seja para automatizar processos, seja para melhorar uma determinada operação. Na cibersegurança não é diferente. A inteligência artificial tem sido cada vez mais utilizada por ambos os lados da barricada. Se os cibercriminosos armaram os seus ataques com IA, também as empresas de segurança adotaram a inteligência artificial como uma solução de segurança. AtaqueOs atacantes estão a utilizar inteligência artificial para tornar os seus ataques mais difíceis de detetar e de serem mitigados pelas soluções de cibersegurança. Uma das estratégias passa por utilizar IA como auxílio a colocar código malicioso em aplicações benignas, estando programado para executar o código numa altura específica, horas, dias ou semanas depois da aplicação ter sido instalada. Esta estratégia permite maximizar os impactos dos ataques, mas, para ocultar estes códigos e informações, são necessárias as aplicações de modelos de inteligência artificial e a obtenção de chaves privadas para controlar o local e a hora em que o malware será executado. Os cibercriminosos também utilizam IA para executar ataques inteligentes que se propagam automaticamente por um sistema ou por uma rede. O malware inteligente pode, por exemplo, explorar vulnerabilidades não mitigadas, levando a um aumento da probabilidade de alvos totalmente comprometidos. Alberto R. Rodas, Sales Engineer Manager da Sophos Iberia, indica que os “hackers começam a utilizar” a inteligência artificial “para criar malware nunca antes visto”. Isto acontece, explica, porque, “se nos depararmos com ‘obras de arte’ realizadas por IA, estas são ‘inimagináveis’, isto é, carecem de sentido para nós”. Este é o ponto procurado pelos cibercriminosos: criar “programas tão ‘estranhos’ que acabam por não ser detetados”. A investigação ao ataque à TaskRabbit, em 2018, que comprometeu cerca de 3,75 milhões de utilizadores, não conseguiu identificar de onde se originou o ataque. Este tipo de ataques, mais furtivos e menos detetáveis, são muito mais perigosos, uma vez que os cibercriminosos podem entrar e sair de um sistema como quiserem; a inteligência artificial facilita esta realidade e a tecnologia irá ajudar a criar ataques mais inteligentes e mais rápidos. Mais ataques no futuroAlberto R. Rodas defende que a inteligência artificial ainda não tem um papel ativo nos ataques realizados contra as organizações. No entanto, acrescenta, “em breve isso acontecerá”. “Sabemos que os ciberatacantes já estão a testar estes sistemas e é uma questão de tempo até que sejam aplicados de forma efetiva no cibercrime”, diz. O número de ataques cibernéticos que utilizam IA podem ser uma pequena percentagem dos ataques realizados, mas, afirma o representante da Sophos, “é uma questão de tempo até que comece a ser explorado em larga escala. Mais do que isso, esta situação levará a que ocorram ainda mais ataques, uma vez que com estas ferramentas, qualquer pessoa, mesmo com poucos conhecimentos, pode criar o seu próprio malware inédito e potencialmente contornar as principais barreiras de segurança”. Tendo em conta que os cibercriminosos utilizam, atualmente, sistemas e técnicas de dissimulação cada vez mais complexos, o cenário muda de figura com a inteligência artificial. “Deixa de ser necessário utilizar estas técnicas (muitas vezes já conhecidas) e, por isso, os ataques alcançam uma nova dimensão no que toca à sua capacidade de invasão”, explica Alberto R. Rodas. A inteligência artificial também poderá ter uma palavra a dizer nos ciberataques que dependem de uma forte componente de engenharia social. A IA pode aprender a detectar padrões de comportamento e perceber como pode convencer os seus alvos de que um determinado email ou chamada telefónica é legítimo e persuadi-los a comprometer as suas redes ou a entregar dados confidenciais. Todas as técnicas de engenharia social que os cibercriminosos empregam atualmente podem ser melhoradas com a ajuda da IA. DefesaComo mencionado anteriormente, a inteligência artificial já é aplicada a várias áreas das organizações. Na defesa cibernética das empresas, a IA não é um tema novo. Nos últimos anos, as empresas de segurança têm feito uma longa investigação e tentado perceber como é que as capacidades de inteligência artificial e machine learning podem ser incorporadas nas suas soluções. Hoje, as ferramentas e produtos de segurança que contam com IA podem detetar e responder a incidentes de cibersegurança com muito pouca – ou mesmo nenhuma – intervenção de humanos. A inteligência artificial não melhora apenas a postura de defesa; também automatiza a deteção e a resposta a ataques. Esta realidade tem um impacto positivo não só na componente financeira, mas também na componente humana, uma vez que é preciso menos intervenção dos colaboradores para mitigar uma ameaça. Treinar a máquinaPara que a inteligência artificial tenha sucesso na defesa das organizações, primeiro tem de ser treinada para isso. Alberto R. Rodas, da Sophos, explica que “graças à grande quantidade de malware que temos nos nossos laboratórios, pudemos treinar o nosso sistema de deep learning para prever se um programa é malicioso ou não, mesmo que nunca o tenha visto anteriormente. Isto garante-nos uma camada de segurança suplementar para que nos adiantemos a novos ataques”. É através da deteção de malware desconhecido ou nunca antes visto que está uma das vantagens da inteligência artificial na defesa cibernética das organizações. Alberto R. Rodas indica que, graças ao treino prévio, os sistemas são hoje capazes de detetar novos malwares com uma taxa de sucesso relativamente elevada e “sem cair em falsos positivos – questões muito importantes em qualquer organização”. Resposta com confiançaAtualmente, a inteligência artificial, aliada a machine learning, capacitam o analista de cibersegurança a responder às ameaças existentes com uma maior confiança e, também, com mais velocidade. A IA é treinada por milhares de milhões de dados – que chegam de fontes estruturadas e não-estruturadas. Depois, a inteligência artificial melhora a sua compreensão para perceber os padrões de um ataque, de uma ameaça ou, no fundo, de um risco para a organização. Simultaneamente, a inteligência artificial reconhece insights e identifica as relações entre as várias ameaças, sejam eles arquivos maliciosos, endereços de IP suspeitos ou outras ameaças mais comuns. Esta análise efetuada pela IA leva segundos ou, quando muito, alguns minutos; assim, os analistas de segurança podem responder muito mais depressa a uma ameaça. Outra ajuda que a inteligência artificial já está a dar a quem defende as organizações é a reduzir o tempo despendido em tarefas rotineiras. A IA elimina o tempo que se gasta em tarefas de investigação e fornece análises de riscos detalhados que reduzem o tempo necessário para um analista de cibersegurança tomar uma decisão crítica e lançar uma resposta adequada à ameaça. Face de dois gumesÉ uma realidade que a inteligência artificial pode ser utilizada para o bem ou para o mal; depende da maneira como foi programada – ou ensinada. Se é verdade que é uma importante ferramenta para quem defende as organizações, para quem ataca abre portas para lá do que é atualmente feito. A IA é, efetivamente, uma faca de dois gumes. Nos últimos anos, as tecnologias de inteligência artificial foram amplamente aplicadas em soluções de segurança cibernética, mas os hackers também estão a aproveitar esta tecnologia para desenvolver programas inteligentes de malware e executar ataques cada vez mais furtivos e disruptivos. O jogo do gato e do rato vai continuar na cibersegurança. A inteligência artificial é só uma nova fase desta realidade. |