Analysis
No segundo dia do C-Days falou-se na importância dos recursos humanos e de dados de confiança para o funcionamento justo da inteligência artificial
Por Maria Beatriz Fernandes . 16/06/2021
No C-Days, o dia começa às 9h30. A conferência do Centro Nacional de Cibersegurança, este ano com o mote “Naturalizar Competências”, avizinhava três dias repletos de keynotes, sessões, painéis e reflexões. No segundo dia do evento, o tema da Inteligência Artificial (IA) invadiu a Alfândega do Porto e a sala virtual daqueles que acompanhavam à distância. Na sessão Riscos & Conflitos, sob o tema inteligência artificial: abraçar as competências do futuro, ouvimos falar da articulação entre a cibersegurança e a inteligência artificial com o Professor Arlindo Oliveira, do Instituto Superior Técnico; Bernardo Patrão, Diretor de Inovação da Critical Software; Filipe Sousa, Coordenador do departamento de “Connected Things” da Fraunhofer; e Paulo Calçada, Administrador Executivo da Porto Digital. A discussão começou com os desafios que a articulação entre a inteligência artificial e a cibersegurança apresentam e o consenso entre os oradores foi claro. Filipe Sousa diz que “como um todo, a IA é bastante positiva para a sociedade” e pode ser uma aliada dos métodos e das competências de cibersegurança, mas também uma potencial ameaça para os sistemas e os utilizadores, com efeitos nocivos para a sociedade. “São sistemas tão complexos que as relações causa-efeito são deveras marcantes na vida das pessoas”, completa Paulo Calçada. Bernardo Patrão remata que “a cibersegurança pode beneficiar da IA porque permite a automatização de processos e a deteção automática de possíveis ameaças, e há vários produtos e serviços no mercado que aplicam essa ideia. Mas há uma dicotomia interessante. Se não forem utilizadas em conjunto e a IA estiver do outro lado da barricada, pode comprometer os sistemas”. O elevado volume de dados que alimenta a IA pode enfraquecê-la e se ela própria for atacada, todo o processo é inviabilizado. Arlindo Oliveira dividiu a relação em três grandes blocos, que vão “submeter grandes desenvolvimentos em termos regulamentares e tecnológicos na próxima década”. Em primeiro lugar, “o uso malicioso da IA para ataques maciços a sistemas”; a IA enquanto suporte dos sistemas de cibersegurança; e a relação de papel invertido, de garantir a segurança dos sistemas de IA, porque eles próprios podem ser atacados e “uma infiltração de um hacker na IA pode ser devastadora”. O professor justifica que embora a IA analise os eventos quase em tempo real, o maior problema é “identificar a agulha no palheiro” e distinguir um evento de ataque de milhares de eventos dos sistemas, não é fácil, até porque “muitos destes sistemas são relativamente opacos e há ataques difíceis de identificar”. Outra das problemáticas da IA parte de um ponto de vista ético, de perceber como se pode garantir a transparência, a responsabilidade e a justiça do algoritmo. A IA funciona à base de padrões e por isso carece em sensibilidade e nuance, nos cálculos e tomada de decisões. “As pessoas continuam a ser fundamentais na tomada decisões e o fator humano tem de ser considerado, porque esses sistemas não existem isolados nem são completamente autónomos, e não devem ser”, reflete Paulo Calçada. Filipe Sousa reitera que “é importante perceber como a inteligência artificial é confiável e essa é a diretiva da União Europeia”, e que “uma das soluções é ter a data distribuída e várias máquinas a colaborar, em vez de concentrar todos os processos numa só. Isto chama-se aprendizagem federada”. Naturalizar CompetênciasNão é por coincidência que neste C-Days se fala em competências. Quando o tema é inteligência artificial é importante questionar qual o seu papel em relação às capacidades humanas. Deve substituir ou otimizar? O painel concordou que a IA não vai substituir as competências humanas, mas antes aumentar e potenciar as suas capacidades. “A substituição será sempre parcial e mais uma ampliação de capacidades do que exatamente a substituição de peritos” assegura Arlindo Oliveira e conta que “as pessoas com competências avançadas em cibersegurança e em machine learning são as mais pretendidas pelo mercado” e que é também nessas áreas que há mais falta de recursos humanos e “as empresas sabem disso”. A IA funciona por reconhecimento de padrões e embora detete quebras nos padrões, facilitando o trabalho dos operadores, um ataque cibernético é sempre diferente e “embora haja a possibilidade de desenvolver sistemas cada vez mais sofisticados de IA, para garantir a automatização parcial de tarefas de cibersegurança, estou convencido de que esse progresso vai ser lento comparado com outras áreas onde há estabilidade”, assegura o Professor. Bernardo Patrão acredita que se deve apostar em Explainable AI, ou seja, na possibilidade de um sistema explicar ao ser humano as bases da sua decisão, e na regulamentação, de forma a garantir que os sistemas têm uma base de dados imparcial e justa. Já Paulo Calçada atenta na necessidade de haver "cocriação e diferentes perspetivas sobre a IA”, não só de engenheiros e peritos, mas também de cidadãos comuns e de designers, psicólogos, entre outros, “porque todos nós somos utilizadores”. A educação dos recursos humanos é essencial para reconhecer ciberameaças mais complexas e Arlindo Oliveira crê que “não é colocado um ênfase grande o suficiente na importância da educação” e Paulo Calçada conclui que "à medida que formos capacitando a sociedade, estaremos mais preparados para esses problemas” e “deve haver colaboração, as cidades devem ser as donas dos dados”, porque, no fundo, a formação dos cidadãos pode valer mais do que qualquer algoritmo. |