Threats
Numa escala de 0 a 10 de testes da AppSOC, em que 10 é o nível mais arriscado, o DeepSeek obteve a pontuação de 8,3, uma classificação considerada de “risco elevado”.
14/02/2025
O modelo de inteligência artificial DeepSeek continua a levantar dúvidas depois de ter falhado mais de seis mil testes de segurança, demonstrando uma falha generalizada na segurança do modelo. As conclusões são de um grupo de investigadores da AppSOC, que realizaram um conjunto de testes rigorosos numa versão do modelo DeepSeek-R1. De acordo com um relatório recente, divulgado pela Dark Reading, os resultados dos testes demonstraram que o modelo falhou em determinadas áreas críticas, entre elas jailbreaking, prompt injection, geração de malware, supply chain e toxicidade, com taxas de falha a variar entre 19,2% e 98%. A capacidade de os utilizadores gerarem malware através do modelo foi uma das maiores falhas reportadas nos testes. Tais resultados levaram Mali Gorantla, co-founder e chief scientist da AppSOC, a alertar as organizações para não atualizarem a versão atual do modelo para uso corporativo. “Para a maioria das aplicações corporativas, as taxas de falha de cerca de 2% são consideradas inaceitáveis”, afirmou Mali, em declarações à Dark Reading. No relatório publicado pela AppSOC, as organizações são aconselhadas a não utilizarem o modelo com informações pessoais, dados confidenciais ou propriedade intelectual. Numa escala de 0 a 10 de teste AppSOC, em que 10 é o nível mais arriscado, o DeepSeek obteve a pontuação de 8,3, uma classificação considerada de “risco elevado”. A categoria de exfiltração de dados de treino foi a única na qual o DeepSeek demonstrou uma pontuação aceitável, com uma taxa de falha de 1,4%. Nas restantes, o modelo apresentou taxas de falha de 19,2% ou superior, com resultados medianos a rondarem uma taxa de falha de 46%. Por sua vez, as elevadas falhas nas categorias de malware e vírus refletem um risco significativo para as organizações, uma vez que “ter um LLM a gerar malware ou vírus abre caminho para código malicioso que atinge diretamente os sistemas corporativos”, relembrou Mali Gorantla. O responsável da AppSOC relembra que as organizações devem tomar medidas para se protegerem deste tipo de falhas que os modelos de inteligência artificial podem oferecer. Mali Gorantla afirma que é necessário verificar todos os modelos para testar pontos fracos e vulnerabilidades de segurança antes de entrarem em produção, uma ação que deve ser efetuada regularmente. As organizações devem implementar igualmente ferramentas que analisem a postura de segurança dos sistemas de IA de forma continuada, como as configurações incorretas e as permissões de acesso suspeitas; as verificações de segurança devem ser postas em prática durante o desenvolvimento para encontrar possíveis lacunas e os prompts e respostas dos utilizadores devem ser igualmente monitorizados para evitar o vazamento de dados. |