Analysis
Cibercriminosos procuram utilizar produtos de inteligência artificial já disponíveis em vez de desenvolverem os seus próprios sistemas de IA
13/05/2024
A Trend Micro partilhou uma investigação que se foca na utilização criminal de Inteligência Artificial (IA) generativa e uma das conclusões é que, por enquanto, ainda está atrás da adoção de ferramentas de IA por parte da defesa. A empresa de cibersegurança só descobriu um LLM criminoso, o WormGPT, mas há uma maior incidência – e uma maior probabilidade de utilização – de serviços de jailbreaking, como o EscapeGPT, BlackHatGPT e LoopGPT. Também foram descobertos um número de serviços cujo propósito não é certo. Estes serviços não fornecem uma demo e apenas mencionam as suas capacidades, fazendo muitas promessas, mas fornecendo poucas provas das suas capacidades. Segundo a Trend Micro, quando os cibercriminosos não estão a enganar outros cibercriminosos, concentram-se na utilização de produtos de IA mainstream em vez de desenvolverem os seus próprios sistemas de IA. Uma das tendências passa pelos serviços de deepfake que, de uma forma geral, são relativamente baratos para criar uma deepfake que é boa o suficiente para ataques generalizados e que têm como alvo pessoas que não têm uma relação mais próxima com a pessoa que está a ser falsificada. |