Imagem comrpova.png

Áudio de William Bonner de pronto feito Lula e Alckmin é falso e foi com ferramenta de deepfake

Onde foi publicado: TikTok.Conclusão do Comprova: Vídeo publicado no TikTok em que William Bonner supostamente chama Lula (PT) e Geraldo Alckmin (PSB) de bandidos é um deepfake, aqui manipulado com ferramentas de inteligência artificial em que as pessoas aparecem dizendo ou fazendo coisas que nunca fizeram. com os movimentos da boca do jornalista, é possível perceber que há uma dissincronia. Através da busca reversa da imagem de Bonner no vídeo foi possível identificar que o post utilizado trecho da edição do Jornal Nacional do dia 12 de julho de 2021. A reportagem diz respeito ao arquivamento pela Justiça Eleitoral de São Paulo de uma das ações da Lava Jato contra Delúbio Soares, ex-tesoureiro do PT. Em momento do trecho utilizado pelo vídeo aqui investigado o apresentador Lula ou Alckmin.Procurado pelo Comprova para o vídeo selecionado, o jornalista e produtor de deepfakes na internet Bruno Sartori explicou que uma voz atribuída a Bonner foi produzida a partir de uma fala da técnica Text to Speech (TTS), que gera áudios sinteticamente a partir de um conteúdo em texto. Sartori se popularizou pela produção de vídeos de humor que utilizam a técnica, e frequentemente conteúdos públicos para alertar sobre as possibilidades de criação e edição de vídeos por meio de deepfakes.

Nenhum conteúdo aqui verificado, a maioria dos comentários são risadas. No entanto, parte dos usuários não entendeu o vídeo era de fato uma montagem. Por ser um conteúdo alterado para alterar o seu significado original, o Comprova o classificou como falso.

Alcance da publicação: O Comprova investiga os conteúdos suspeitos de maior alcance nas redes sociais. Até o dia 1º de agosto, o vídeo teve 2,3 milhões de visualizações, 48,6 mil curtidas, 1,8 mil comentários e 37,6 mil compartilhamentos de compartilhamento.

O que diz o autor da publicação: Não foi possível entrar em contato com o autor do post pois o TikTok não permite o envio de mensagens. Diante disso, o Comprova pesquisou pelo perfil do autor em outras redes sociais e fez buscas reversas de imagem, usando fotos do homem, mas não encontrou resultados.

Como verificamos: Para verificar o conteúdo, o Comprova entrou em contato com Bruno Sartori, jornalista e analisador de deepfakes na internet, e solícito que elesse o vídeo investigado. A equipe também com Anderson de Rezende Rocha, cientista da computação, estudioso dos deep converfakes e diretor do Instituto de Computação da Universidade Estadual de Campinas (Unicamp).

Também foram feitas das imagens de William Bonner e de Lula Alckmin presentes no vídeo buscas e reversas aqui.

Para tentar localizar o autor da postagem, foram feitas buscas pelo nome do seu perfil em outras redes sociais e no Google. Por fim, a equipe também assistiu a outros vídeos postados pelo usuário no TikTok.

Vídeos originais usados ​​na postagem

O vídeo tem 14 segundos e se inicia com uma tela preta com inscrição “O encontro de dois bandidos” e emojis de risadas. Segue para a abertura do Jornal Nacional com a narração de William Bonner: “O encontro de dois bandidos”. O vídeo corta para imagens de Lula e Alckmin se abraçando, enquanto o jornalista diz: “Perdão, imagem errada. A imagem seria de outro ladrão, digo, de um ladrão de verdade”.

É perceptível que a voz não está sincronizada com os movimentos da boca de Bonner. Com base na leitura labial, também é possível ver que, no primeiro trecho da fala de Bonner (em que o áudio diz: “O encontro de dois bandidos”), o jornalista na verdade está falando: “A Justiça Eleitoral”.

Por meio de busca reversa da imagem de William Bonner no vídeo foi possível identificar que a postagem utilizada trecho da edição do Jornal Nacional do dia 12 de julho de 2021. Bonner está com a mesma verde do vídeo do TikTok e, a partir de 10 minutos e 49 segundos do link das ações, ele diz: “A Justiça Eleitoral de São Paulo arquivou por prescrição uma das transmissões da Lava Jato contra o ex-tesoureiro do PT, Delúbio Soares”. Pelos movimentos do lábio do apresentador, é possível verificar que o primeiro trecho usado no vídeo do TikTok corresponde à fala “A Justiça Eleitoral”. O trecho usado na postagem corresponde a “Por prescrição Jato contra uma das ações da Lava ex-tesoureiro”.

| Captura de tela do vídeo investigado

| Captura de tela da transmissão do Jornal Nacional

Já como imagens de Alckmin, sendo utilizadas no vídeo investigados foram utilizadas em 14 de abril de 2022, durante Lula evento com centrais sindicais em São Paulo. A publicação no TikTok é um vídeo da reportagem do UOL Notícias sobre o evento.

| Captura de tela do vídeo investigado

| Captura de tela do vídeo do UOL

Ferramenta de criação de voz

De acordo com o jornalista e produtor de fakes na internet Bruno Sartori, a voz de William Bonner no vídeo aqui elaborado foi feito a partir de uma técnica a partir de uma técnica Text to Spe atribuídas), que é capaz de gerar áudios sinteticamente a partir de um conteúdo em texto. O Sartor do áudio é semelhante entre o vídeo em análise e um criado por ele mesmo, em que também “criou” uma voz ele pode acessar o conteúdo de William Bonner a partir de deepfakes. Assim, segundo Sartori, o vídeo que é objeto dessa verificação também trata-se de um deepfake, tecnologia que manipula áudios e vídeos por meio de ferramentas de inteligência artificial.

Como o conteúdo é apenas de áudio que não é possível, ou seja, um vídeo explica o material original com o significado significativo como objetivos e provas de que o material passou por mudanças. Ele costuma produzir esse tipo de conteúdo em casos como o do vídeo de deepfake Reproduziu a cantora Anitta, que viralizou na última semana. “A produção dessa contraprova é possível apenas em materiais que envolvem adulteração de imagens”, comenta.

Ele exemplificou ainda que a técnica utilizada pelo autor do vídeo aqui em estudo foi semelhante ao que ele utilizou conteúdo com a voz da ex-presidente Dilma Rousseff. “A partir de um banco computador com base de áudios do William Bonner falando, o gera um novo áudio, do zero, baseado no que foi escrito em texto”, acrescenta.

Sartori ainda que hoje já existem sites disponíveis para pessoas capazes de produzir áudios famosos a partir de conteúdos em texto.

De acordo com Rezende Rocha, já existem cientistas de computação, estudioso de deepfakes e diretor do Instituto de Computação da Unicamp, o que muda em relação aos deepfakes é que agora esses conteúdos são criados por inteligência artificial, e não um ser humano.

“A inteligência artificial permite que você crie falsificações sem precisar da inteligência de um humano, que é substituído por uma técnica chamada ‘generative adversarial network, uma rede de inteligência artificial). Essa rede normalmente tem muitas camadas e parâmetros, e exatamente daí sai o nome ‘deep’ [profundo, em inglês]. ‘Deepfake’ então vem da criação de conteúdo a partir de redes desse tipo, tanto para áudio quanto para vídeo e imagem”, explica.

Segundo Rocha, como os seres humanos eram usados ​​muito avançados, tinham pistas que poderiam ser procuradas para aquele conteúdo era uma identificação. Por exemplo, no caso de imagens e vídeos, era feita análise de movimento dos olhos (ver se a pessoa piscando ou não) e próximo aos lábios, e se a iluminação na cena casava com a próxima ao rosto. Isso, conforme o pesquisador, normalmente porque os seres humanos geram algumas inconsistências.

No caso de conteúdos em áudio, Rocha diz que, no geral, analisou o pitch, a modulação da voz e as transições entre fonemas.

“O problema é que esses dados mais importantes de inteligência artificial são medidos à medida que eles veem mais e mais exemplos já não são triviais. Hoje não é fácil identificar se um vídeo é um deepfake ou não. Se você ouve um áudio, a não ser que você seja uma pessoa que pareça bastante de áudio, você não encontrará essas inconsistências facilmente. Então hoje em dia a gente tem que usar uma inteligência artificial própria para nos ajudar a identificar esse tipo de falsificação.”

Em relação ao Text to Speech (TTS), Rocha afirma que existem pelo menos duas modalidades. Há o TTS que pode ouvir um exemplo capaz de receber um texto de entrada e verbalizar aquele conteúdo para que as pessoas possam ouvir, como os audiolivros, por exemplo. Esse tipo de TTS, conforme Rocha, é normalmente usado com fins de assistência pessoal.

E há também uma técnica de TTS “puppeting”, que é chamada quando um animal gera um texto e faz uma voz fala-lo. “Puppeting” vem da palavra fantoche em inglês, que significa fantoche. “É como se você está colocando palavras na boca de uma pessoa. Aí você vai imitar toda a questão do tom e formato da voz, o rosto vai ter que mexer de acordo. Essa técnica de falsificação tem sido bastante utilizada muitas vezes com fins humorísticos, mas também já há casos em que isso é usado justamente para fazer falarem o que elas não querem e isso é divulgado depois como se fosse um vídeo real.”

Outros vídeos postados pela mesma conta

O perfil do TikTok responsável pelo post aqui investigado se descreve na rede como “pregador da palavra de Deus”. Além de vídeos com teor religioso, há vídeos semelhantes ao que foi outros três aqui. São montagens com voz de William Bonner, sempre fazendo referência a Lula ou ao atual presidente, Jair Bolsonaro), em tom de brincadeira e brincadeira, o que reforça a ideia de que a postagem aqui era uma peça de humor, que não foi compreendido por seus usuários.

Nenhum conteúdo aqui investigado, a maior parte dos comentários são risadas. Apesar de diversas pessoas comentarem, em tom de ironia, que Bonner e a Globo a verdade ao menos uma vez” e elogiarem a montagem, pessoas ficaram em dúvida se o conteúdo havia sido editado ou não, como mostram algumas imagens abaixo:

Em outro vídeo, pela mesma conta, Bonner aparece na bancada do Nacional dizendo que “a rede Globo reconhece o país do presidente Jair Messias o melhor presidente da história desse”, o que nunca aconteceu. É possível novamente observar a falta de sincronia entre a voz e o movimento da boca do apresentador. Em outro vídeo, a voz de William Bonner sobreposta a imagens de uma multidão é vestida de verde e amarelo comemorando e a frase “Em outubro receberemos essa notícia”. A voz diz: “2 de outubro de 2022 às sete trinta e dois. Acabamos de a notícia que todos esperavam receber. Jair Messias Bolsonaro é reeleito presidente do Brasil”.

Por que investigamos: O Comprova conteúdos investiga suspeitos sobre a pandemia, presidenciais e políticas públicas do governo federal que viralizaram nas redes sociais. O vídeo aqui verificado citou o ex-presidente e candidato ao presidente do PT, Lula e seu vice, Geraldo Alckmin. Os falsos e enganosos são prejudiciais ao processo porque atendem ao direito do eleitor de fazer sua escolha baseada em conteúdos falsos, não em boa formação democrática.

Outras checagens sobre o tema: Em verificações posteriores à adulteração de áudio e montagens, o Comprova mostrou que com áudio falso, vídeo enganando ao sugerir que o ex-governador da Paraíba “humilhou” Lula e elogiou BolsonaroThat vídeo falso faz montagem de Lula declarando voto em Bolsonaro e que post adultera audio e mente ao afirmar que Lula foi xingado em Caruaru.

Investigado por: Piauí e Plural Curitiba. Verificado por: Folha de S. Paulo, Metrópoles, SBT, SBT News, Correio Braziliense e Estadão.

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *