00dias
00horas
00min.
00seg.

Analysis

Microsoft bloqueou fraudes no valor de quatro mil milhões de dólares potenciadas por IA

A nova edição do relatório Cyber Signals revela como os cibercriminosos estão a usar inteligência artificial para enganar consumidores e empresas a nível global

17/04/2025

Microsoft bloqueou fraudes no valor de quatro mil milhões de dólares potenciadas por IA

No âmbito da nona edição do relatório Cyber Signals, onde a Microsoft alerta para o crescimento de esquemas de fraude potenciados por Inteligência Artificial (IA) em setores como o comércio eletrónico, recrutamento e suporte técnico. Entre abril de 2024 e abril de 2025, a empresa impediu fraudes no valor de aproximadamente quatro mil milhões de dólares, bloqueou cerca de 1,6 milhões de tentativas de inscrição de bots por hora e rejeitou 49 mil inscrições fraudulentas de parcerias.

A IA está a reduzir a complexidade técnica associada ao cibercrime, permitindo a criação de conteúdo altamente convincente, como websites falsos, campanhas de phishing, lojas virtuais fraudulentas e até entrevistas de emprego simuladas com recurso a deepfakes. Estes ataques são globais, com origem destacada na China e na Europa, em particular na Alemanha, um dos maiores mercados de comércio eletrónico na União Europeia.

No caso do comércio eletrónico, os cibercriminosos usam IA para gerar rapidamente websites fraudulentos que imitam plataformas legítimas. Estes sites recorrem a descrições de produtos, imagens e avaliações de clientes geradas por IA, além de chatbots de atendimento ao cliente que manipulam reclamações e atrasam reembolsos. Para combater estas ameaças, a Microsoft reforçou a sua proteção com soluções como o Microsoft Defender for Cloud e o Microsoft Edge, que inclui bloqueadores de scareware e mecanismos de proteção contra domínios falsos.

A IA generativa está a ser usada para criar anúncios de emprego falsos, perfis fictícios e campanhas de phishing dirigidas a candidatos, tornando os processos de recrutamento também alvos preferenciais. As entrevistas automatizadas e e-mails falsificados tornam estas fraudes mais difíceis de detetar. A Microsoft aconselha a utilização de autenticação multifator para contas de empregadores e a adoção de tecnologias de deteção de fraude. Sinais como promessas de salários elevados para qualificações mínimas, mensagens não solicitadas ou pedidos de pagamento antecipado devem ser encarados com suspeita.

Outra área em destaque no relatório é o crescimento das fraudes de suporte técnico, particularmente em ambiente empresarial. A Microsoft identificou o grupo Storm-1811, com atividade focada em ransomware, a utilizar o software Quick Assist e, posteriormente, o Microsoft Teams, para se fazer passar por técnicos de IT. Estes ataques de engenharia social, com recurso a chamadas de voz fraudulentas (vishing), convenceram vítimas a partilhar acesso remoto aos seus dispositivos.

Como resposta, a Microsoft reforçou a segurança do Quick Assist com novos alertas de segurança e bloqueios automáticos de ligações suspeitas. Em média, estão a ser bloqueadas 4.415 tentativas de ligação suspeitas por dia, o que representa cerca de 5,46% do total global.

A tecnológica destaca ainda a iniciativa Secure Future Initiative (SFI), com o objetivo de garantir que os seus produtos são concebidos com resistência à fraude desde o início. Em janeiro de 2025, foi introduzida uma nova política interna que obriga as equipas de desenvolvimento a incluir avaliações e controlos de prevenção de fraudes no processo de design.

A Microsoft tem aplicado tecnologias como machine learning e deep learning para identificar e neutralizar fraudes em grande escala. Entre as ferramentas destacadas estão o ScamSLMer, o Microsoft Defender SmartScreen e funcionalidades de segurança no Edge e no LinkedIn, capazes de alertar os utilizadores para tentativas de fraude e atividades suspeitas.

Para reforçar a proteção, a empresa recomenda ainda medidas como:

  • Ativação de autenticação multifator e ID verificado com Entra ID;
  • Utilização de algoritmos de deteção de deepfake em entrevistas de emprego;
  • Verificação da legitimidade de websites, assegurando a presença de ligações seguras (https);
  • Substituição do Quick Assist por Remote Help para suporte interno mais seguro;
  • Adoção de impressão digital comportamental para identificar acessos não autorizados.

Estas recomendações visam ajudar os consumidores e as empresas a protegerem-se num ambiente digital cada vez mais exposto à exploração maliciosa de tecnologias emergentes como é o caso da inteligência artificial.


NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT SECURITY Nº23 Abril 2025

IT SECURITY Nº23 Abril 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.