Analysis
Cibersegurança na inteligência artificial foi um dos tópicos em foco durante o C-Days Madeira 2023, contando com um painel dedicado ao tema
Por Rui Damião . 13/03/2023
O primeiro painel do C-Days Madeira 2023 – que decorreu no dia 9 de março em Câmara de Lobos, na Madeira – foi dedicado à “Cibersegurança na Inteligência Artificial: do desenho ao uso” e onde participaram Vítor Santos, da Universidade Nova de Lisboa, Eliano Marques, da DataMentors, e Eduardo Marques, da Universidade da Madeira. Vítor Santos, da Universidade de Lisboa, começou por partilhar que, apesar de parecer uma área recente, “a Inteligência Artificial [IA] já é bastante antiga” e que “não é boa, nem é má; tudo depende do uso que se dá à inteligência artificial”. Sabendo que a IA pode ser utilizado para realizar ataques mais poderosos, Vítor Santos indica que os sistemas de inteligência artificial “podem ajudar em muitos casos, em particular na prevenção. Podemos antecipar, com base nos dados, alguns ataques”. Eduardo Marques, da Universidade da Madeira, refere que, hoje, “as ferramentas integram, cada vez mais, inteligência artificial. Há todo um conjunto de práticas que foram instituídas até agora que, hoje, são humanamente impossíveis de serem mantidas pela escala, que são os sistemas de informação e sistemas digitais. Com a quantidade de ataques que estão a surgir, as ferramentas tradicionais já não conseguem acompanhar nem serem úteis para evitar a maioria desses ataques”. Para Eduardo Marques, a inteligência artificial ainda não é a ferramenta final, mas podem “trazer-nos para um domínio onde um problema gigantesco de imensas atividades e imensos ataques possam, de alguma forma com automação e mecanismos de inteligência artificial serem reduzidos para uma dimensão onde os atores humanos se possam focar”. Eliano Marques, da DataMentors, partilha que tem trabalho com inteligência artificial nos últimos cinco anos. “A IA, até agora, servia para fazermos uma previsão, ou seja, temos os dados e a IA diz se é fraude ou não, se a cor é vermelha ou preta, por exemplo. Agora, há muito pouco tempo, surgiu uma técnica onde replica os dados que aprendeu; quando treinamos este tipo de algoritmos, por exemplo, em vozes, a IA gera outputs com essa voz”, diz. Esta evolução obriga a que se tenha de perceber se um determinado áudio, uma determinada imagem ou um determinado texto foi criado por uma pessoa ou, por outro lado, por um sistema de inteligência artificial. Eliano Marques refere que esta realidade traz uma série de desafios do ponto de vista digital e de cibersegurança. A ética da IAVítor Santos relembra que “a ética é composta por um conjunto de várias morais e, supostamente, uma máquina é treinada por dados que refletem a moral das pessoas. O exemplo mais premente é a máquina moral do MIT, onde qualquer um pode responder consoante o seu juízo ético. Com base nas respostas de todas as pessoas, a máquina vai treinando com as respostas de todas as pessoas e cria uma ética”. Eduardo Marques afirma que “a tecnologia não pode ser olhada como um fim, mas sim como um processo contínuo que tem de ser monitorizado. Já são conhecidos alguns exemplos da aplicação da inteligência artificial que, sendo baseada em dados históricos ou incompletos, acabam por criar enviesamento que não dão os resultados que podem ser eticamente mais aceitados”. “Se aplicarmos isso à área da cibersegurança, também temos esse problema. Temos de continuar sempre a estudar os dados com que estamos a treinar os nossos modelos e isto é uma realidade dinâmica; têm de ser continuamente avaliados para ver se cumprem os objetivos que tem de ser ético e humano”, diz, ainda, Eduardo Marques. Eliano Marques chama a atenção para uma questão: “não podemos deixar que as decisões da ética da inteligência artificial sejam um novo aeroporto de Lisboa que nunca vai ser feito”. Pegando no exemplo dos acidentes com carros autónomos, Eliano Marques relembra que enquanto se discute de quem é a culpa de um acidente com carros autónomos, continuam a existir acidentes com carros não autónomos e, possivelmente, em números superiores. “Temos de ter a atenção de, por exemplo, dividir as decisões éticas tendo em conta a escala da problemática”, refere.
A IT Security é Media Partner do C-Days Madeira 2023 |