Home / Situações deepfake são a próxima fronteira na guerra da desinformação
Notícias
Fique por dentro das principais notícias do setor publicitário no Brasil e no mundo.

Situações deepfake são a próxima fronteira na guerra da desinformação

Fonte: Fast Company

20 de julho de 2023

Imagine nas próximas eleições presidenciais dos EUA algo nunca antes visto: apenas uma semana antes da apuração dos votos, uma gravação em vídeo revela uma reunião secreta entre Joe Biden e Volodymyr Zelenskyy.

Os presidentes concordam em incluir imediatamente a Ucrânia na OTAN sob o “protocolo especial de adesão de emergência” e se preparar para um ataque nuclear contra a Rússia. De repente, estamos à beira de uma Terceira Guerra Mundial.

Embora jornalistas apontem que tal protocolo não existe e usuários de redes sociais percebam elementos estranhos no vídeo, outros sentem que seus piores medos foram confirmados. Esses cidadãos preocupados podem deixar o vídeo influenciar seu voto, sem saber que acabaram de ser manipulados por um deepfake de um evento que nunca aconteceu de fato.

Esse tipo de deepfake representa o próximo estágio de tecnologias que já abalaram a percepção da realidade do público. Em nossa pesquisa no Projeto DeFake, estudamos como são feitos e que medidas os eleitores podem tomar para se protegerem deles.

Imaginando eventos que nunca aconteceram

Os deepfakes são criados com a ajuda da inteligência artificial para manipular ou gerar rostos, vozes ou – com o surgimento de grandes modelos de linguagem como o ChatGPT – linguagem conversacional. Estes elementos podem ser combinados para criar os chamados “deepfakes de situação”.

A ideia básica e a tecnologia por trás deles são as mesmas de qualquer outro deepfake, mas com um objetivo mais ousado: manipular um evento real ou inventar situações fictícias.

Alguns exemplos incluem representações da prisão de Donald Trump e do ex-presidente abraçando Anthony Fauci, eventos que nunca aconteceram. A imagem do abraço foi promovida por uma conta do Twitter associada à campanha presidencial de Ron DeSantis, atual governador da Flórida e rival de Trump. Outro anúncio atacando a campanha de Joe Biden para 2024, publicado pelo Comitê Nacional Republicano, foi feito inteiramente com IA.

Nossa pesquisa no Projeto DeFake descobriu que os deepfakes são normalmente criados combinando notícias; usando um vídeo para alterar outro ou animar uma imagem (prática apelidada de “puppeteering”); criando uma notícia falsa, geralmente usando IA generativa; ou uma combinação de duas ou mais dessas técnicas.

É importante ressaltar que muitos deles são criados com propósitos inocentes. Por exemplo, a revista “Infinite Odyssey” produz imagens falsas de cenas de filmes que nunca foram produzidos ou que seriam impossíveis de existir.

Mas até mesmo deepfakes inocentes devem ser motivo de cautela, como no caso de fotografias falsas convincentes que retratam a aterrissagem na Lua como uma produção de cinema.

Deepfakes em eleições

Agora, imagine-se na posição de alguém tentando influenciar as próximas eleições. Quais situações você poderia criar?

Para começar, seria importante decidir se deseja influenciar o voto a favor ou contra um resultado específico. Talvez retratando um candidato agindo heroicamente, salvando um pedestre de um carro em alta velocidade, ou fazendo algo ofensivo ou criminoso.

O formato do deepfake também seria relevante. Poderia ser um vídeo ou uma foto, talvez desfocado, simulando uma câmera de smartphone ou com um logotipo falso de uma agência de notícias.

Definir o público-alvo seria fundamental. Em vez de mirar no eleitorado geral ou na base de um partido, você poderia se concentrar em teóricos da conspiração em distritos eleitorais-chave. Poderia retratar o candidato ou seus familiares participando de um ritual satânico ou em uma reunião secreta com um extraterrestre.

Protegendo a realidade

Existem diversas maneiras de detectar e se proteger desses deepfakes. No aspecto tecnológico, todos contêm alguma evidência de sua verdadeira natureza. Alguns podem ser percebidos pelo olho humano – como uma pele excessivamente suave ou iluminação e arquitetura estranhas –, enquanto outros podem ser detectados apenas por uma IA especializada em identificar deepfakes.

Estamos desenvolvendo um detector chamado DeFake que utiliza inteligência artificial para identificar os sinais que indicam se tratar de um deepfake. Mas mesmo que um detector suficientemente poderoso não possa ser implementado até as próximas eleições, existem ferramentas psicológicas que o eleitor pode usar para identificá-los: conhecimento prévio, curiosidade e ceticismo saudável.

Ao se deparar com algum conteúdo sobre uma pessoa, lugar ou evento que pareça incomum, confie em seu conhecimento prévio. Por exemplo, em um boato recente sobre um incêndio no Pentágono, o prédio mostrado se parecia mais com quadrado do que com seu formato verdadeiro, o que pode ser uma pista.

No entanto, evite depender totalmente do seu conhecimento prévio, já que pode ser equivocado ou limitado. Não tenha medo de buscar mais informações em fontes confiáveis, como agências de checagem, artigos acadêmicos revisados por pares ou entrevistas com especialistas renomados.

Além disso, é importante estar ciente de que deepfakes podem ser usados para explorar o que estamos inclinados a acreditar sobre uma pessoa, lugar ou evento. Uma das melhores maneiras de lidar com isso é ter consciência de seus preconceitos e ser cauteloso em relação a qualquer conteúdo que pareça confirmá-los.

Confira matéria na Fast Company

Veja Também

Sobre

A ABAP agora é Espaço de Articulação Coletiva do Ecossistema Publicitário. Fundada em 1º de agosto de 1949, a ABAP segue trabalhando em prol dos interesses das agências de publicidade junto à indústria da comunicação, poderes constituídos, mercado e sociedade.

Dentre suas realizações estão a cofundação do Conselho Nacional de Autorregulamentação Publicitária (CONAR), do Fórum da Autorregulação do Mercado Publicitário (CENP), do Instituto Verificador de Comunicação (IVC) e do Instituto Palavra Aberta.