Opinion
O ano de 2024 é amplamente reconhecido como o maior ano eleitoral da história, com “eleições nacionais em mais de 60 países de todo o mundo - cerca de 2 mil milhões de eleitores”
Por Jon Renshaw, Diretor Adjunto de Investigação na NCC Group . 03/04/2024
O ano passado foi o ano da IA generativa após o lançamento do ChatGPT no final de 2022, bem como do aumento da popularidade de ferramentas de geração de imagens por IA, como DALL-E e MidJourney. Os deepfakes amadores têm sido um problema para as celebridades há cerca de cinco anos e, mais recentemente, os políticos têm estado na mira daqueles que procuram influenciar a perceção pública dos políticos ou dos seus partidos através da geração e partilha de imagens, áudio e vídeo falsos. As plataformas de redes sociais têm travado uma guerra contra bots usados para promover narrativas falsas. Dantes eram razoavelmente fáceis de identificar com nomes de utilizador aparentemente gerados de forma aleatória e publicação de mensagens com o mesmo conteúdo ou quase idêntico. No entanto, à medida que a qualidade da desinformação melhora graças aos avanços na IA generativa, a dependência de bots para espalhar mensagem diminui, e o público e até mesmo a imprensa são enganados. Existe uma especial apetência de as pessoas acreditarem em desinformação se ela estiver alinhada e amplificar a sua visão do mundo. Além disso, o efeito sobre os indecisos (eleitores oscilantes) é de grande preocupação para as sociedades democráticas, pois esses são os que normalmente decidem o resultado das eleições. O momento de lançamento de um deepfake também pode amplificar o seu impacto caso haja menos tempo para avaliá-lo e relatá-lo como falso ou se for partilhado durante moratórias obrigatórias, como aconteceu durante as eleições na Eslováquia. Por outro lado, a erosão da confiança nas informações que os eleitores consomem online pode diminuir o envolvimento no processo democrático. Desinformação: "Informação deliberadamente tendenciosa ou enganadora, ao contrário da informação errada - informação falsa que é divulgada, independentemente da sua intenção de enganar." Deepfake: "Meio visual manipulado que contém semelhanças com uma pessoa real. Originalmente aplicado a técnicas de deep learning usadas para substituir as semelhanças de uma pessoa com outra. Mais recentemente, o termo foi ampliado para incluir a geração de meios audiovisuais totalmente novos com IA generativa." De forma preocupante, a imprensa pode ser levada a propagar desinformação para demonstrar que está em cima dos acontecimentos de última hora ou porque se alinha com as opiniões políticas dos seus públicos-alvo. Mas tem a responsabilidade perante a sociedade de garantir que as histórias que relata são de fontes respeitáveis, ou pelo menos reais. O objetivo deste artigo não é explorar ou ajudar a determinar se uma informação partilhada por alguém é factualmente precisa ou deturpada, ou onde uma opinião é partilhada como facto. Pelo contrário, aborda os casos em que uma informação deliberadamente falsa é gerada com tecnologia e representada como se fosse real ou como se fosse a opinião de uma pessoa real, como no caso de um deepfake de semelhanças com uma pessoa real ou com a sua voz. Estão disponíveis vários controlos para reduzir o risco da disseminação de desinformação a partir de deepfakes. Se dividirmos o problema como na figura abaixo, podemos explorar que tecnologias ajudam. Como consumidor de media, pretende ser capaz de diferenciar entre conteúdo real e falso. O conteúdo, portanto, cai numa destas categorias. Em relação ao conteúdo que tende a influenciar como as pessoas votam, queremos maximizar o conteúdo real verificado como real e o conteúdo falso verificado como falso. Queremos minimizar todas as outras combinações e educar os utilizadores para diferenciar entre conteúdo verificado e não verificado. Na realidade, existe uma série de etapas entre a captura/geração do conteúdo e o seu consumo por parte do público. Se nos concentrarmos em cada fluxo de informação verificada, então os controlos aplicáveis a cada estágio podem ser identificados. Conteúdo real verificadoO conteúdo do mundo real consiste em fotos, vídeos e áudios autênticos e em textos publicados por pessoas na sua verdadeira identidade. No caso de meios audiovisuais, o conteúdo é capturado num dispositivo digital e codificado num arquivo de media. Os dispositivos geralmente gravam metadados relacionados com a captura, que podem ser usados como evidência de autenticidade. De facto, a falta de metadados relevantes deve ser tratada como indicador de que uma imagem ou gravação é menos confiável. Algumas câmaras podem assinar digitalmente as fotos e os vídeos que tiram. As assinaturas digitais usam criptografia para provar que o proprietário da chave criptográfica assinou o ficheiro. São fáceis de remover, mas incrivelmente difíceis de falsificar desde que a chave de assinatura seja mantida em segredo. Uma foto assinada digitalmente é um forte indicador de confiabilidade desde que se possa confiar nos controlos de segurança implementados pelo fabricante da câmara. Ao considerar se deve ou não publicar determinado material audiovisual, a imprensa pode usar essas técnicas em conjunto com outros métodos de jornalismo de investigação para formar uma opinião sobre se o conteúdo é real ou falso, e publicá-lo através de canais aprovados, adicionando marcas d'água ou logotipos aos materiais que tenha inspecionado. Um dos problemas de adicionar logotipos e marcas d'água é que são facilmente falsificáveis, o que pode resultar em pessoas mal-intencionadas a abusar da confiança depositada nos logotipos para enganar outras. As assinaturas digitais também ajudam aqui, pois são muito difíceis de falsificar, mas têm um problema de usabilidade. A maioria dos leigos não entende o que são assinaturas digitais ou como verificá-las. A implementação mais conhecida é o cadeado num navegador, que indica que um site tem um certificado válido para a sua URL. A infraestrutura de chave pública (PKI) da web e as organizações que emitem certificados digitais, as Autoridades de Certificação, melhoraram significativamente a segurança dos utilizadores da Internet. Mas o ecossistema tem enfrentado desafios técnicos e políticos. Estabelecer um consórcio semelhante para o ambiente muito mais politicamente carregado da imprensa requer um amplo apoio da indústria, possivelmente regulação, e o equivalente ao cadeado da web para ficheiros de media assinados. Felizmente, esse esforço já está em andamento. A Coalition for Content Provenance and Authenticity (C2PA), composta por entidades de notícias, tecnologia e direitos humanos, está a desenvolver padrões técnicos, conhecidos como credenciais de conteúdo, que serão utilizados para provar criptograficamente as informações de proveniência de determinada peça de media. Isto inclui quem criou, editou e até como foi editada. Os standards abarcam o equivalente ao cadeado e o ícone da credencial de conteúdo, desenhado para ser reconhecível e verificável pelos consumidores. A BBC começou recentemente a usar credenciais de conteúdo para apoiar o seu serviço BBC Verify. As plataformas de partilha são responsáveis por promover conteúdo genuíno e evitar amplificar falsidades. Nos termos da Lei dos Serviços Digitais da UE, as plataformas tecnológicas serão obrigadas a rotular conteúdo manipulado. Exatamente o que isso representa na prática será definido em orientações adicionais da Comissão Europeia, esperadas para breve. O X (ex-Twitter), o TikTok e a Meta introduziram contas verificadas para garantir aos utilizadores que as contas com as quais interagem são genuínas. Estas verificações fornecem confiança de que o conteúdo partilhado, seja em texto ou imagens, voz e vídeo, é do proprietário da conta. No entanto, os algoritmos que promovem o envolvimento também poderão promover conteúdo falso se provocar uma forte resposta por parte dos utilizadores. Além dos controlos técnicos, os utilizadores podem realizar a sua própria verificação. Os conselhos comuns incluem:
Conteúdo falso verificadoOs deepfakes e a inteligência artificial generativa começam a sua vida como um conjunto de dados de treino. Estes modelos não podem gerar uma semelhança realista da aparência ou voz de alguém se não tiverem exemplos suficientes para treinar. Infelizmente, para muitas pessoas com destaque público, não é possível controlar quem tem acesso a muitos exemplos do seu rosto e voz online. Nos últimos cinco anos, tem sido desafiador - mas possível - criar deepfakes de várias qualidades com ferramentas gratuitas e um conjunto de dados de treino. É certamente possível para um ativista politicamente motivado criar gerações de voz realistas, como nos casos do Líder do Partido Trabalhista do Reino Unido, Keir Starmer, do Presidente da Câmara de Londres, Sadiq Khan, e do Presidente dos Estados Unidos, Joe Biden. No entanto, em todos os casos com deepfakes, existem geralmente pistas de que o media é falso; artefactos de áudio e vídeo incomuns são detetáveis. Mais recentemente, muitas empresas de inteligência artificial generativa treinaram os seus modelos com imagens da internet de celebridades e políticos, diminuindo a barreira à entrada para criar uma imagem manipulada razoavelmente realista para qualquer pessoa com um cartão de crédito. Já passou o tempo para saber se desde logo foi ético treinarem os modelos com esses dados. No momento da geração, os operadores de modelos de IA podem implementar controlos para evitar a geração de conteúdo politicamente sensível. Até agora, estes "guardas de proteção" têm-se mostrado inconsistentes na sua eficácia, com investigações a serem publicadas sobre várias técnicas para "persuadir" um modelo a gerar resultados que violam a intenção dos “guardas de proteção”. Outro controlo ativamente investigado é a incorporação de marcas de água no conteúdo gerado para determinar facilmente o uso de IA. As credenciais de conteúdo e a assinatura digital também têm aplicações aqui. Por exemplo, as imagens geradas pelo DALL-E no serviço Azure OpenAI aplicam automaticamente credenciais de conteúdo que especificam que a imagem é gerada por IA com detalhes da sua proveniência. No entanto, uma pessoa determinada e com alguma habilidade pode extrair o conteúdo do manifesto assinado digitalmente e partilhá-lo sem as credenciais e os metadados associados sobre a sua origem. A imprensa desempenha um papel vital como instituição de confiança na correção do registo quando um deepfake convincente é amplamente partilhado. Pode usar as mesmas técnicas de verificação de imagens reais para detetar imagens falsas, bem como revelar o que os metadados dizem, quão confiáveis são as fontes e se o media tem quaisquer artefactos incomuns. Da mesma forma, as empresas de redes sociais e outros fornecedores de plataformas podem limitar a disseminação da desinformação. A denúncia de desinformação por parte dos utilizadores às equipas de moderação de conteúdo, bem como a deteção automática de conteúdo duplicado, pode impedir que os deepfakes se espalhem ainda mais. As empresas de redes sociais estão especialmente qualificadas para implementar a deteção automática de medias manipulados através de tecnologias como machine learning, dadas a sua dimensão e capacidade técnica da equipa e sistemas. Os modelos para classificar medias como falsos ou autênticos têm-se mostrado eficazes em investigações; a questão agora é se as plataformas conseguem traduzir estes resultados promissores em sistemas de deteção e rotulagem automatizados eficazes a longo prazo. Os utilizadores também desempenham o seu papel na limitação da disseminação e do impacto da desinformação. Recomenda-se a realização de verificações fundamentais, tais como:
Existe a questão sobre que papel devem desempenhar os governos além das regulamentações para incentivar as plataformas e meios de comunicação a implementar soluções técnicas. As campanhas de consciencialização pública devem (no mínimo) continuar, relembrando que nestes tempos não se deve assumir que o que se está a ver ou ler é necessariamente genuíno. Ao mesmo tempo, as autoridades devem também responsabilizar os candidatos políticos por garantir que estão a tomar medidas para evitar amplificar a desinformação. Os deepfakes e a IA generativa usados para desinformação representam indiscutivelmente um risco para processos democráticos justos a nível global. Mitigar esse risco exige um esforço convergente de todas as partes interessadas, incluindo programadores e operadores de IA, imprensa, governos, candidatos políticos, plataformas de redes sociais e os próprios eleitores. Resta saber se um incidente de deepfake influenciará decisivamente o público votante o suficiente para alterar os resultados de uma eleição. |