Vídeos deepfake com o CEO da Apple, Tim Cook, inundaram o YouTube recentemente, coincidindo com o evento “Glowtime” da empresa. Esses vídeos, projetados para enganar os usuários a investir em criptomoedas, foram criados usando ferramentas avançadas de IA que replicaram a imagem e a voz de Cook.
As transmissões ao vivo apareceu em um canal do YouTube que parecia quase idêntico ao canal oficial da Apple, completo com um selo de verificação falso. Isso tornou difícil para os espectadores distingui-los do conteúdo genuíno. Após uma enxurrada de relatos de usuários preocupados, os vídeos foram rapidamente retirados do YouTube.
Segundo relatos, durante a transmissão ao vivo, Tim Cook, gerado por IA, parecia estar promovendo um esquema de “enriquecimento rápido”. Ele disse,
“Assim que você concluir seu depósito, o sistema o processará automaticamente e enviará de volta o dobro do valor de criptomoeda que você depositou.”
Tim Cook se junta à onda de Elon Musk
Esta não é a primeira instância da tecnologia deepfake sendo mal utilizada para promover golpes de criptomoedas. Por exemplo, vídeos gerados por IA de Elon Musk já foram usados de forma semelhante, explorando sua persona pública para convencer espectadores desavisados a investir em esquemas fraudulentos de criptomoedas.
Aqui, vale ressaltar que o CEO da Tesla não é estranho a preocupações como essas. Recentemente, ele foi feito parte de um processo que alegava que Musk inflou artificialmente o valor do Dogecoin, o maior memecoin do mercado. Embora isso tenha sido descartado logo, o uso de Musk gerado por IA significa que sua imagem é frequentemente usada para golpes reais.
Na época, o relatório da AMBCrypto citou os advogados de Musk dizendo:
“Não há nada de ilegal em tuitar palavras de apoio ou imagens engraçadas sobre uma criptomoeda legítima.”
O que as plataformas de mídia social estão fazendo?
Plataformas de mídia social como YouTube e Twitter têm trabalhado ativamente para combater tais golpes. O YouTube emprega uma combinação de algoritmos de aprendizado de máquina e revisões manuais para detectar e remover conteúdo falso, enquanto o Twitter usa IA avançada para identificar atividades suspeitas e remover contas que promovem esquemas fraudulentos.
Além disso, eles implantam sistemas de detecção automatizados e contam com relatórios de usuários para identificar conteúdo fraudulento.
O aumento de golpes deepfake destaca a necessidade urgente de melhorar a alfabetização digital e medidas de segurança. À medida que essas táticas fraudulentas se tornam mais sofisticadas, os usuários devem permanecer vigilantes e as plataformas devem continuar a desenvolver melhores ferramentas de detecção para proteger suas comunidades de danos financeiros.
Ao mesmo tempo, governos e órgãos reguladores em todo o mundo também estão considerando novas políticas e tecnologias para lidar com os riscos crescentes associados a golpes de mídia deepfake e criptomoedas. A luta contínua contra esses tipos de fraude exige um esforço coordenado de empresas de tecnologia, usuários e reguladores para ficar à frente dos cibercriminosos que continuamente adaptam suas táticas para explorar novas vulnerabilidades.