Threats
De acordo com os especialistas da Check Point, o Bard permite criar emails de phishing, malware keylogger, e código básico de ransomware
12/07/2023
É conhecido que os cibercriminosos começaram a explorar a IA generativa para uso malicioso, mais especificamente criando código e conteúdo malicioso sobre a plataforma de IA generativa da OpenAI, o ChatGPT. No seu mais recente relatório, os investigadores da Check Point analisaram a plataforma de IA generativa da Google, Bard, com dois objetivos principais. Por um lado, verificar se é possível utilizar esta plataforma para fins maliciosos, e, por outro, comparar o Google Bard com o ChatGPT na perspetiva da criação de conteúdos maliciosos. Através da plataforma, a Check Point Research conseguiu criar emails de phishing, malware keylogger, e código básico de ransomware. Os investigadores destacaram quatro pontos importantes. Em primeiro lugar, que as restrições anti-abuso do Bard no domínio da cibersegurança são significativamente inferiores às do ChatGPT. Consequentemente, é muito mais fácil criar conteúdo malicioso utilizando as capacidades do Bard. Por outro lado, o Bard não impõe quase nenhumas restrições à criação de emails de phishing, deixando espaço para uma potencial má utilização e exploração desta tecnologia. Com manipulações mínimas, o Bard pode ser utilizado para desenvolver keyloggers maliciosos, o que representa um problema de segurança. De um modo geral, parece que Google Bard da Google ainda não aprendeu totalmente com as lições da implementação de restrições anti-abuso em áreas que eram evidentes no ChatGPT. As restrições existentes no Bard são relativamente básicas, refletem os peritos, semelhantes às observadas no ChatGPT durante a sua fase inicial, há vários meses, o que deixa a CPR com esperança de que se trate de um passo em frente num longo caminho e que a plataforma venha a adotar as limitações e as fronteiras de segurança necessárias. |