Threats
Os ataques deepfake de face swap registaram um aumento significativo em 2023, sendo utilizados pelos cibercriminosos para contornar sistemas de verificação de identidade
11/02/2024
Os ataques deepfake que utilizam a tecnologia “face swap” para tentar contornar a verificação remota de identidade registaram um aumento de 704% em 2023. Ferramentas gratuitas ou de baixo custo de face swap, câmaras virtuais e emuladores móveis estão a impulsionar o crescimento do número de atores de ameaças focados nestes ataques, segundo o Centro de Operações de Segurança (iSOC) da iProov. “A IA generativa proporcionou um enorme impulso aos níveis de produtividade dos agentes de ameaças: estas ferramentas têm um custo relativamente baixo, são facilmente acessíveis e podem ser utilizadas para criar meios de comunicação sintetizados altamente convincentes, como trocas faciais ou outras formas de deepfakes que podem facilmente enganar o olho humano, bem como soluções biométricas menos avançadas”, afirma Andrew Newell, Chief Scientific Officer da iProov. No seu 2024 Threat Intelligence Report, os investigadores concluíram que a tecnologia de face swaps é o “deepfake preferido entre os atores de ameaças persistentes”. Aplicações como o SwapFace, DeepFaceLive e Swapstream são as ferramentas mais comuns utilizadas em ataques contra sistemas remotos de verificação de identidade. O iSOC verificou também um aumento de 255% dos ataques de injeção direcionados a plataformas de verificação de identificação móvel, bem como um crescimento de 353% do recurso a emuladores nestes ataques entre o primeiro e o segundo semestre de 2023. Ainda mais, o número de grupos de ameaças que trocam informações online sobre ataques a sistemas biométricos e de identificação por vídeo quase duplicou entre 2022 e 2023, sendo que 47% surgiram no último ano, de acordo com o estudo. Em particular, os vídeos deepfake são frequentemente combinados com ataques de injeção digital que utilizam um feed de câmera virtual para substituir a webcam ou outro feed de câmara de dispositivo que normalmente seria usado para exibir o rosto de alguém para verificação. Segundo a Gartner, em comparação com os ataques de apresentação, os ataques de injeção digital são mais difíceis de detetar e a sua frequência duplicou em 2023, apesar de muitos sistemas biométricos faciais estarem equipados com deteção de ataques de apresentação. Atualmente, os analistas de ameaças do iProov monitorizam mais de 110 ferramentas e repositórios diferentes de face swap que podem ser utilizados para criar deepfakes maliciosos. Os grupos de cibercriminosos que recorrem a deepfakes visam com frequência sistemas de verificação de identidade manuais ou híbridos, onde um operador humano tem a última palavra, segundo o relatório. Isto deve-se, dizem os investigadores, ao facto de que os atacantes consideram que o ser humano é mais facilmente enganado através de ataques de injeção deepfake em comparação com sistemas computadorizados de reconhecimento facial. Os investigadores do iProov observaram ainda que os agentes da ameaça fornecem instruções sobre como falhar de propósito na verificação biométrica para serem encaminhados para um operador humano, revela o relatório. |