Opinion
A lista das proezas conseguidas com recurso ao ChatGPT não para de aumentar, com as adições recentes de ter “passado”, ou perto disso, em exames de faculdades de medicina, de direito, ou de gestão.
Por Henrique Carreiro . 03/02/2023
A suspeita de que poderá ser usado para escrever ensaios e outros textos, por alunos de vários graus de ensino já lá vai: neste momento é certeza. Neste último caso, o problema está a ser endereçado pela utilização de marcas de água digitais, para reduzir, pelo menos de forma parcial, a preocupação com utilizações indevidas em educação. Não será nada de inultrapassável por alunos deteminados, mas é uma camada adicional de proteção. Já no caso das preocupações nas áreas de segurança pouco se tem falado. E está na altura do tema ser abordado com mais profundidade. Uma das áreas onde se espera – teme, seria a palavra exata – que o ChatGPT e futuras aplicações semelhantes de IA venham a ter mais impacto é nos ataques baseados em engenharia social. Muitos dos ataques de phishing são, muitas vezes, detetados pelos recipientes por as mensagens virem com erros diversos, não apenas de ortografia, mas também de expressão. Ora será possível a potenciais atacantes usarem este tipo de ferramentas para elaborarem mensagens de phishing mais elaboradas do que até aqui, logo, com possibilidades de convencerem mais recipientes desprevenidos. Mas não termina aqui. A evolução dos modelos de linguagem de grandes dimensões (LLM) permitirá também uma melhor, digamos, personalização das mensagens, nomeadamente em termos de tom, vocabulário e registos de expressão de emissores. Cada pessoa tem o seu modo próprio de expressão, como o têm as comunicações empresariais. Não é difícil imaginar o ChatGPT, ou seus sucessores e parentes a produzirem “deep fakes” destas comunicações, que podem ser usados para todo o tipo de ataques de engenharia social. Mas estes são apenas alguns dos vetores de ataque a utilizadores finais. É possível – e provável – que modelos de linguagem venham a ser usados no lado da criação de “malware”: como se se tratassem de um GitHub Copilot virado à produção de código que explore vulnerabilidades dos sistemas alvo. Uma solução, por outras palavras, “low-code”, ou “no-code” para o desenvolvimento de software de utilização danosa. Ainda estamos nas fases iniciais da utilização destes modelos e, se o passado serve de exemplo, com a possibilidade de ser gerado dinheiro de forma ilegítima com recurso a IA, todas os caminhos serão exploradas. Na realidade, talvez o que venha a suceder seja uma maior eficácia para os ataques, um menor custo de entrada para a criação de ameaças sofisticadas, maiores níveis de desintermediação entre os atacantes e os alvos, que tornam o controlo e mitigação muito mais difíceis. É certo que podemos – e devemos – dizer que também do lado da defesa será usada IA. Mas é insuficiente. No fim, é necessário mesmo é começarmos a prepararmo-nos. Assim como a todas as potenciais vítimas: os ataques futuros serão muito mais sofisticados que os atuais. A sofisticação face ao fenómeno por parte de todos nós tem de crescer pelo menos a par de tal proporção, se não mais. Se não nos protegermos, não há IA que nos proteja da IA. |