À medida que a linha entre fato e ficção fica mais difícil de distinguir, os criminosos online precisam de apenas duas horas para criar um produto “deepfake” realista e gerado por computador que pode arruinar a vida de alguém.
O aumento da popularidade de fotos, áudio e vídeos hiper-realistas desenvolvidos com inteligência artificial (IA) – comumente conhecidos como deepfakes – tornou-se uma sensação na internet.
Também está dando aos vilões cibernéticos uma vantagem no mundo do crime.
Entre 2022 e o primeiro trimestre deste ano, o uso de deepfake em fraudes disparou 1.200% apenas nos Estados Unidos.
Embora não seja apenas um problema americano.
Na mesma análise, deepfakes usados para fins fraudulentos explodiram no Canadá, Alemanha e Reino Unido. No estudo, os Estados Unidos representaram 4,3% dos casos globais de fraude com deepfakes.
Enquanto isso, especialistas em IA e investigadores de crimes cibernéticos dizem que estamos apenas na ponta do iceberg. A toca do coelho do potencial de fraude com deepfakes continua.
“Acredito que o incentivo nº 1 para criminosos cibernéticos cometerem crimes cibernéticos é a aplicação da lei e sua incapacidade de acompanhar”, disse Michael Roberts ao Epoch Times.
O Sr. Roberts é um investigador profissional e fundador da empresa pioneira Rexxfield, que ajuda vítimas de ataques baseados na web.
Ele também fundou a PICDO, uma organização de disrupção de crimes cibernéticos, e dirigiu educação contra hackers para ramos das forças armadas dos EUA e da Austrália, bem como para a OTAN.
Roberts disse que os sistemas legais no mundo ocidental estão “irremediavelmente sobrecarregados” por casos de fraude online, muitos dos quais incluem ataques deepfake. Além disso, os casos que são investigados sem a contratação de uma empresa privada são escolhidos a dedo.
“E mesmo assim, [o caso] não está resolvido”, disse ele.
O mercado de detecção de deepfake foi avaliado em US$3,86 bilhões em 2020 e deve crescer 42% ao ano até 2026, de acordo com um relatório do HSRC.
Prestidigitação
Imagine receber um telefonema de um ente querido, chorando, alegando que foi sequestrado. Naturalmente, os sequestradores querem dinheiro e a voz de seu familiar passa a dar instruções de como entregar o resgate.
Você pode estar convencido de que é a voz de sua amada do outro lado da linha, mas há uma chance de que não seja.
Os golpes de áudio deepfake ou “clonagem de voz” se espalharam como fogo nos Estados Unidos este ano, surpreendendo indivíduos compassivos e despreparados em vários estados.
Mas não para por aí. Os ataques deepfake podem chegar de várias formas. Esses golpes inteligentes também podem aparecer como chats de vídeo com alguém que você conhece.
Eles podem aparecer como a postagem de mídia social de um colega de longa data, discutindo como um investimento em criptomoeda permitiu que eles comprassem a bela casa nova para a qual estão apontando com entusiasmo em uma foto.
“Temos muitos golpes de criptomoedas”, disse Roberts.
Deepfakes também são usados para chantagem. Geralmente envolve a criação de um vídeo ou foto aceitável da vítima em uma situação obscena ou comprometedora.
Em seguida, os invasores exigem um resgate, para não distribuir o falso aos colegas de trabalho, chefe, família e amigos da vítima.
Cada um desses exemplos já está acontecendo.
Mas, para criar essas falsificações realistas, os criminosos precisam de acesso a materiais como fotos, áudio e vídeo. Infelizmente, essas coisas não são difíceis de conseguir.
“Se alguém entra em suas fotos privadas, em seu iCloud, isso dá toda a amostra, toda a tecnologia… para fazer falsificações hiper-realistas”, disse Roberts.
Os perfis de mídia social são um tesouro para os criminosos que procuram criar esses produtos.
Recuperar ativos perdidos e a reputação da vítima pode ser difícil. Roberts observou que o litígio contra crimes cibernéticos é uma batalha difícil. “É longo, é árduo, é demorado e é emocional e financeiramente desgastante.”
Outros membros da indústria de IA dizem que não é apenas a qualidade das falsificações que é um problema, mas também a quantidade.
“Mais cedo ou mais tarde, as pessoas serão capazes de gerar qualquer combinação de pixels de qualquer tipo de conteúdo. E cabe a você filtrá-lo”, disse Alan Ikoev ao Epoch Times.
O Sr. Ikoev é o CEO da FameFlow.ai, que cria anúncios licenciados de celebridades e influenciadores.
Como pioneiro do conteúdo autorizado gerado por IA envolvendo celebridades, ele está muito familiarizado com o trabalho de seus colegas nefastos.
Mas, para combater esses golpes cada vez mais sofisticados, as pessoas precisam desconfiar de tudo o que veem online. “Se eles não questionam , são facilmente convencidos”, disse Ikoev.
Discernir o que é real ou falso online já é um desafio. Oitenta e seis por cento dos usuários da Internet admitiram ter sido enganados por notícias falsas, de acordo com uma pesquisa da Ipsos com mais de 25.000 participantes em 25 países.
Isso é agravado por um estudo recente de segurança cibernética, que revelou que quase metade de todo o tráfego da Internet agora é gerado por bots.
Mas nem tudo são más notícias. O Sr. Roberts afirma que os criminosos não perceberam a rapidez com que a tecnologia está avançando, que atualmente está superando os “maus atores”.
No entanto, é necessário vigilância e ter um plano para repelir ou combater os ataques deepfake.
Movimentos e contra-movimentos
O rápido avanço da tecnologia em fraude quase evoca nostalgia dos dias em que os golpes da Internet eram apenas um e-mail de um príncipe autoproclamado em uma terra estrangeira que precisava de ajuda para transferir dinheiro.
A IA forneceu ferramentas melhores aos cibercriminosos, mas também pode ser usada contra eles.
“O desenvolvimento de ferramentas avançadas de detecção de deepfake usando algoritmos orientados por IA é crucial para combater essa ameaça. Esforços colaborativos entre desenvolvedores de IA, pesquisadores e empresas de tecnologia são essenciais para criar medidas de segurança robustas e aumentar a conscientização”, Nikita Sherbina, CEO da AIScreen, disse ao Epoch Times.
Sherbina disse que as empresas podem se proteger dobrando a tecnologia. Essencialmente combatendo fogo digital com fogo.
“Implemente sistemas avançados de autenticação baseados em IA, incluindo reconhecimento facial e de voz com autenticação multifator. Monitoramento contínuo e análise de padrões de comunicação usando algoritmos de IA também podem ajudar a detectar e prevenir atividades fraudulentas”, disse ele.
Mas para os indivíduos, interromper ou prevenir um golpe deepfake é mais simples.
No caso de uma suspeita de ataque de clone de voz, o Sr. Roberts disse: “A primeira coisa que você deve fazer é dizer: ‘querida, já ligo de novo para você'”.
Ele observou que os golpistas inventarão uma desculpa para que você não possa ligar de volta para verificar a identidade deles. Outro truque para inviabilizar criminosos usando áudio clonado para forjar um sequestro é fazer perguntas ao chamador que não sejam de domínio público.
“Tenha essa conversa com sua família antes que isso realmente aconteça, para que eles entendam o que você está fazendo”, acrescentou o Sr. Roberts.
Ele enfatizou a importância de não usar endereços de e-mail individuais com nomes completos ou números relevantes para a data de nascimento do usuário.
Além disso, uma pessoa nunca deve reutilizar uma senha de login. O Sr. Roberts observou que a primeira coisa que os hackers fazem quando pegam uma senha é tentar entrar em todos os sites possíveis para ver onde mais funciona.
Isso inclui contas bancárias, armazenamento em nuvem, mídias sociais e muito mais.
Mas, embora os deepfakes tenham elevado a fasquia para os golpistas online, os métodos para localizá-los não mudaram.
“O processo não muda. A IA é apenas o conteúdo… mas as migalhas deixadas pelos criminosos são sempre as mesmas”, disse Ikoev.
O rastreamento de golpistas pode estar bem estabelecido, mas não é um caminho claro para as vítimas recuperarem o dinheiro perdido.
Golpes financeiros de deepfakes podem variar de US$243.000 a US$35 milhões, de acordo com uma análise.
Um exemplo foi um golpe de criptomoeda usando uma imagem forjada de Elon Musk que supostamente custou aos consumidores dos EUA cerca de US$ 2 milhões em seis meses.
Talvez o mais preocupante seja que qualquer um pode criá-los. O Sr. Ikoev explicou que tudo o que alguém precisa para criar um deepfake em seu smartphone é uma placa gráfica e assistir a alguns tutoriais na web.
“E então já está tudo pronto”, disse ele.
Mundo de possibilidades
O momento da próxima eleição presidencial dos EUA em 2024 é precário, dado o aumento do material deepfake.
Roberts disse que os americanos devem esperar uma corrida eleitoral repleta de vigaristas com um arsenal de deepfakes.
O Departamento de Segurança Interna dos EUA também expressou preocupação com o uso da tecnologia, afirmando: “A ameaça de deepfakes e mídia sintética não vem da tecnologia usada para criá-la, mas da inclinação natural das pessoas de acreditar no que veem”.
No entanto, a caixa de Pandora já está aberta.
No início deste ano, surgiram vídeos de políticos americanos fazendo comentários surpreendentemente fora do comum.
Um envolvia Hillary Clinton endossando o candidato presidencial republicano Ron DeSantis.
Outro retratou o presidente Joe Biden lançando comentários raivosos a uma pessoa transgênero.
De acordo com o Sr. Roberts, este é apenas o começo.
“Será usado em muita interferência política”, disse ele, acrescentando que essa tecnologia tornará o próximo evento de nível COVID muito pior para o público.
“Não estou falando de desinformação conforme descrito pela esquerda liberal. Estou falando de mentiras deliberadas para engenharia social em todo o mundo.”
Entre para nosso canal do Telegram