Threats
Além de utilizarem o ChatGPT para escrever malware, os cibercriminosos recorrem ao chatbot da OpenAI para espalhar desinformação, evitar a deteção e realizar ataques de spear-phishing
15/10/2024
A OpenAI desmantelou mais de 20 operações maliciosas que usavam o ChatGPT para desenvolver e testar malware, espalhar desinformação, evitar a deteção e realizar ataques de spear-phishing. O relatório, que se concentra nas operações realizadas desde o início deste ano, é a primeira confirmação oficial de que ferramentas de Inteligência Artificial (IA) generativa estão a ser utilizadas para melhorar ciberoperações. Os primeiros indícios de atividade maliciosa foram relatados pela Proofpoint em abril, onde se suspeitava que o TA547 utilizava um carregador PowerShell criado com IA para o payload final, o Rhadamanthys info-stealer. No mês passado, os investigadores da HP Wolf comunicaram que os cibercriminosos que atacavam utilizadores franceses estavam a recorrer a ferramentas de IA para escrever scripts utilizados como parte de uma cadeia de infeção em várias etapas. O relatório mais recente da OpenAI confirma que agentes de ameaças chineses e iranianos estão a usar o ChatGPT para aumentar a eficácia das suas operações. |