Opinion
A chegada iminente da inteligência artificial geral (AGI), como foi, de alguma forma recentemente prenunciada pelo drama de mudanças organizacionais na OpenAI, representa uma faca de dois gumes para o domínio da cibersegurança
Por Henrique Carreiro . 04/12/2023
Embora a AGI prometa revolucionar a deteção e a resposta aos ataques informáticos, suscita simultaneamente grandes preocupações quanto a uma potencial utilização indevida e quanto a consequências imprevistas. À medida que nos aventuramos neste território desconhecido, é fundamental avançar com passos seguros. Por um lado, os sistemas de cibersegurança alimentados por AGI podem dar início a uma era transformadora de mitigação de ameaças. A sua capacidade de analisar grandes quantidades de dados poderá permitir a identificação de anomalias, padrões e comportamentos indicativos de ciberataques, permitindo neutralizar as ameaças antes de se materializarem em danos irreversíveis. Além disso, a capacidade de adaptação e aprendizagem contínuas da AGI poderá equipar-nos para nos mantermos à frente das táticas e técnicas em constante evolução utilizadas por agentes malévolos. Mas, por outro lado, o poder da AGI tem potencial imenso para uma utilização indevida. Nas mãos, por exemplo, de agentes ao serviço de estados à margem da comunidade internacional, a AGI pode ser utilizada como arma para criar ciberataques capazes de causar danos generalizados. Os deepfakes, por exemplo, gerados por AGI, podem ser utilizados para espalhar a desinformação e manipular a opinião pública. Além disso, os sistemas de armas autónomos, alimentados por AGI, poderão constituir uma ameaça existencial para a humanidade (imagine-se o resultado de cruzar robots como os da Boston Dynamics com sistemas que disponham de AGI). Dada a dualidade inerente aos futuros sistemas AGI, é imperativo estabelecer orientações e quadros éticos claros para garantir o seu desenvolvimento e implementação responsáveis. Estes quadros devem abordar questões fundamentais como a transparência e a responsabilização, o controlo e a supervisão humana, a beneficência e a não maleficência, bem como a não discriminação e a equidade. A transparência e a responsabilização, nomeadamente, são essenciais para garantir que o desenvolvimento e a utilização dos sistemas AGI sejam objeto de escrutínio público. Os criadores de sistemas AGI devem ser transparentes quanto às suas capacidades e limitações e devem ser responsabilizados pelas suas ações. O controlo e a supervisão humana são fundamentais para evitar que os sistemas AGI funcionem de forma autónoma, podendo ter consequências catastróficas. Teremos também de estar preparados para cenários em que esta tecnologia caia em mãos onde tais preocupações não sejam prioritárias. Não é difícil imaginar um conjunto de estados -- ou organizações -- que possam chegar a sistemas AGI e onde as questões de utilização responsável sejam consideradas de somenos importância. Ou seja, estamos entre dois caminhos que já se conhecem, por exemplo, dos casos de desenvolvimento de armas avançadas: por um lado, a responsabilidade na criação; por outro, a preparação para cenários em que rivais não tenha igual preocupação. À medida que navegamos nas águas desconhecidas da AGI, é imperativo proceder com cautela e discernimento. Embora a AGI tenha um potencial imenso para melhorar as nossas capacidades de cibersegurança, apresenta simultaneamente riscos significativos. Ao aderir a princípios éticos e ao promover um desenvolvimento responsável, podemos aproveitar o poder da AGI para melhorar a sociedade -- sem nunca deixar de considerar, e estarmos ao mesmo tempo preparados, para o que outros, menos escrupulosos, possam estar a congeminar. |