Deepfake Voice: Como a IA está a Revolucionar a Gestão de Crises

Deepfake Voice: Como a IA está a Revolucionar a Gestão de Crises

A evolução da inteligência artificial (IA) obriga a desafios inéditos para as organizações, em especial no caso de deepfakes de voz. Áudios falsos, capazes de imitar com precisão as vozes de líderes e executivos, têm sido utilizados em esquemas de fraude e desinformação, proporcionando crises de gestão e comunicação difíceis de gerir

O Deepfake Voice ou falsificação digital gerada a partir de IA com poucas amostras de áudio, pode imitar a voz de uma pessoa com uma elevada precisão. Esta possibilidade pode tornar-se numa ferramenta perigosa e propensa a crises de alto risco e impacto, quer ao nível reputacional, quer financeiro. Por isso, impõe-se a pergunta: Será que o ser humano consegue identificar a voz falsa de forma confiável?

Um estudo recente da University College London evidenciou a incapacidade humana para detetar deepfakes de voz com consistência. É verdade que as pessoas conseguem detetar deepfakes da voz com uma precisão moderada, mas longe de ser confiável, os participantes identificaram corretamente apenas 73% dos casos. Estes valores apenas dizem respeito às situações do cenário "unary" (em que os participantes ouviam um único áudio e decidiam se era real ou falso). Esta margem de erro é particularmente preocupante no mundo empresarial, onde uma crise de reputação ou uma fraude pode ser desencadeada por um áudio manipulado.

O mesmo estudo revela que os participantes também classificaram muitas vozes reais como falsas, com uma taxa de acerto de apenas 67,78%. Isto indica que existe uma tendência para falsos positivos, ou seja, classificar áudios reais como falsos. Mais uma vez mostra que a capacidade humana de detetar deepfakes voice não é consistente e pode ser manipulada com alguma facilidade.

A Ameaça Real dos Deepfakes de Voz

Deepfakes de voz representam um perigo crescente, pois combinam tecnologia avançada com a vulnerabilidade humana à desinformação. Um exemplo significativo foi o roubo de 35 milhões de dólares nos Emirados Árabes Unidos, onde uma voz clonada imitou a de um diretor de uma empresa, levando à transferência fraudulenta de fundos. Este incidente sublinha a capacidade dos deepfakes de causar danos financeiros graves e o potencial de minar a confiança e a reputação de uma pessoa ou empresa.

Na preparação dos manuais de gestão de crise, as organizações devem preparar os seus cenários para ataques de engenharia social com deepfake voice. Este tipo de ataque é cada vez mais complexo e criativo: pode surgir com um e-mail ou uma mensagem no telemóvel seguido de uma chamada de voz do remetente, mas falsa, tudo com um conteúdo consistente, profissional e pouco percetível ao ouvido humano.

À semelhança de outros ataques, os burlões podem utilizar o deepfake de voz para se fazerem passar por pessoas da família ou figuras de autoridade e enganarem as vítimas para que transfiram dinheiro sob o pretexto de uma emergência familiar ou profissional. Surgem também preocupações sociais e culturais, particularmente na relação de confiança de pessoas com informações visuais e auditivas, com o uso potencial para a desinformação e manipulação, como fraudes eleitorais e campanhas de difamação. Ainda ao nível da perceção, o deepfake voice, ao replicar com precisão a voz de figuras públicas, pode igualmente distorcer a memória pública e o entendimento dos eventos, criando falsas recordações ou memórias coletivas erradas. Estas são algumas das possibilidades que têm sido mais discutidas e analisadas nos últimos anos ao nível científico e junto dos profissionais de gestão de crises.

De uma certeza podemos dizer: mesmo com formação e treino, a capacidade humana para detetar deepfakes é limitada. O estudo da University College London revela ainda que os participantes apenas melhoraram em 3,84% na sua capacidade de identificar áudios falsos. Por isso, a ciência, até ao momento, conduz-nos a uma conclusão de que sem ferramentas tecnológicas para auxiliar na deteção, os indivíduos e organizações estão em desvantagem. 

Agora imagine que estas fraudes são utilizadas em tempos de crise, onde o stress torna mais difícil discernir a realidade de uma falsificação, ou que a pressão do tempo e a urgência é tão grande que se comete um deslize. Estes são cenários que podem suceder. Então, o que devemos fazer no contexto da Gestão e Comunicação de Crise?

Estratégias de Gestão e Comunicação de Crise no Contexto dos Deepfakes

Dado o aumento das ameaças representadas pelos deepfakes, é essencial que as empresas integrem este cenário nos seus planos de gestão e comunicação de crise, e que trabalhem estas temáticas especialmente junto daqueles que detêm maior poder de decisão.

Para tal, são recomendados os seguintes passos:

1. Avaliação de Risco, formação e exercícios de crise

As empresas devem realizar uma avaliação de risco focada nas ameaças de IA, considerando cenários específicos que podem impactar pessoas, ambiente, operações, segurança ou a sua reputação. Após esta avaliação, devem incluir formação especializada e a criação de exercícios de crises para testar a capacidade de resposta da equipa de comunicação. 

Dado que as fraudes baseadas em deepfakes estão a tornar-se cada vez mais sofisticadas, é vital que as organizações proporcionem formação aos seus colaboradores para que estejam atentos a sinais de possível manipulação e saiba identificar e lidar com áudios fake. Exercícios de vhishing ou simulações baseadas em ataques de engenharia social, deepfakes e IA, podem ajudar os colaboradores a identificar tentativas de manipulação antes dos ataques causarem danos reais.

2. Envolvimento de Especialistas em IA

É importante contar com especialistas em IA na equipa de gestão e comunicação de crise, visto estes poderem ajudar a identificar, a desmascarar deepfakes e a inteirarem a equipa de comunicação com a informação e a terminologia mais adequadas. Também podem participar na própria comunicação de crise e fornecerem explicações mais específicas ao público sobre como o conteúdo foi manipulado. Será importante que este perito em IA tenha sido previamente preparado para falar aos jornalistas, com um crisis media training, para que consiga ter uma linguagem clara e funcional quando estiver a comunicar numa conferência de imprensa ou numa entrevista, por exemplo. 

3. Resposta Rápida para conter a crise

Uma resposta rápida é fundamental para evitar que a narrativa do deepfakes voice se consolide e crie falsas perceções públicas. Se uma empresa for alvo de um deepfake, deve emitir uma declaração clara, desmentindo as alegações falsas e apresentando provas que corroborem a sua posição. Dependendo do impacto na opinião pública, as estratégias comunicacionais também podem ser distintas. Se o deepfake afetar diretamente clientes ou parceiros, é aconselhado fazer uma comunicação personalizada e detalhada para assegurar que compreendem que foi uma falsificação. 

É importante analisar caso a caso. Porém, algo é imprescindível, não podemos atrasar na resposta pois pode levar à disseminação de mais desinformação, exacerbando a crise.

Se possível, a organização deve considerar medidas legais contra os responsáveis pelo deepfake. Assim como solicitar a remoção do conteúdo deepfake das redes sociais. Esta atitude reforça a seriedade de como a organização está a lidar com a crise e o seu compromisso com a proteção da reputação.

Tecnologias de Apoio à Deteção

No auxílio das equipas de Gestão de Crises é essencial recorrer a tecnologias de deteção de deepfakes voice. Recentemente, surgiram ideias criativas para combater os perigos crescentes, através de uma iniciativa da Comissão Federal de Comércio dos EUA, em Maio deste ano, um Challenge Voice Cloning. Deste concurso surgiram um conjunto de ideias inovadoras:

  • a OriginStory desenvolveu um microfone, que permite validar a voz na fonte, na prática verifica a humanidade da fala gravada quando ela é criada. Ou seja, o microfone tem sensores integrados para detetar e medir biossinais que o corpo emite (batimentos cardíacos, movimentos pulmonares, vibrações das cordas vocais e o movimento dos lábios, mandíbula e língua).
  • o AI Detect da OmniSpeech pretende incorporar algoritmos em telefones que têm poder de computação para distinguir vozes geradas por IA em tempo real.
  • DeFake, é outra ferramenta de IA. DeFake adiciona pequenas perturbações a uma gravação de voz humana, tornando a clonagem precisa mais difícil. Este pode ser um exemplo do que é chamado de IA adversarial, uma técnica defensiva que ataca a capacidade de um modelo de IA de funcionar corretamente.

Estes modelos de IA específicos para combater deepfakes estão a ser desenvolvidos, alguns ainda estão em estágios iniciais ou são conceptuais. Contudo, importa dizer que a prevenção continua a ser complexa, pelo que a melhor abordagem atual consiste numa combinação de defesas tradicionais e ferramentas de IA.

Embora ainda não exista consenso, os profissionais de Gestão e Comunicação de Crise consideram que a IA pode ser uma ferramenta útil no combate aos deepfakes e narrativas de desinformação.

Em síntese, a ascensão dos deepfakes impõe uma necessidade urgente de adaptação das estratégias de comunicação de crise. As organizações que não incluírem planos específicos para lidar com deepfakes voice ou outros arriscam-se a sofrer graves danos financeiros e reputacionais. A combinação de uma resposta rápida, tecnologia avançada e equipas treinadas permitirá mitigar os impactos de crises induzidas por IA e assegurar que as organizações protejam eficazmente a sua integridade.

No futuro hoje, à medida que os deepfakes se tornarem mais frequentes e difíceis de detetar, será essencial que as empresas mantenham uma postura vigilante, reforçando as suas defesas e respondendo prontamente às ameaças emergentes, quer com a componente humana, quer com a Inteligência Artificial.

Elsa Lemos

Elsa Lemos

Especialista em Comunicação de Crise e Vogal da CIIWA
CIIWA

É especialista em Comunicação de Crise com 18 anos de experiência e vogal da CIIWA. O seu propósito é criar e treinar para uma cultura de comunicação de crises em Portugal. Prepara pessoas e organizações, de entidades públicas a privadas e sem fins lucrativos para comunicar em situações de crise. Entre os seus clientes estão sectores como o financeiro e o de infraestruturas críticas. O seu trabalho pode ser acompanhado através da #elsalemos

Outros artigos deste autor


REVISTA DIGITAL

IT SECURITY Nº20 Outubro 2024

IT SECURITY Nº20 Outubro 2024

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.