Golpe combina contratação de “modelos de IA” para fechar negócio em videochamadas deepfake

Os complexos fraudulentos no Sudeste Asiático já se tornaram modernas fazendas de escravos, prendendo as vítimas e forçando muitas delas a se tornarem golpistas para elas. Agora eles adicionaram outro tipo de trabalhador à mistura: os chamados modelos de IA.

Esses golpistas profissionais realizam videochamadas com seus alvos, convencendo-os a entregar seu dinheiro. Como relatado em WIRED esta semana, anúncios de recrutamento descrevem funções que lidam com cerca de cem videochamadas ao vivo por dia, promovendo golpes românticos e atividades criptográficas em operações fraudulentas em escala industrial no Camboja, Mianmar e Laos.

Essas fazendas de golpes já contam com operadores de bate-papo para capturar vítimas de golpes por meio de aplicativos de mensagens. Muitos destes operadores são eles próprios vítimas de tráfico, forçados a trabalhar longos turnos sob ameaças de violência. Eles desenvolvem relacionamentos com as vítimas ao longo do tempo, explorando a solidão ou as preocupações financeiras. Enquanto trabalham para fazer a vítima se sentir especial, na verdade estão realizando sessões de texto semelhantes com dezenas de pessoas ao mesmo tempo. Eventualmente, a vítima pode querer uma videochamada, seja para conhecer seu namorado imaginário ou para confirmar que uma oportunidade de investimento é legítima (ou ambos).

Os operadores de bate-papo podem não ter a capacidade de encantar as vítimas em vídeo, especialmente quando eles próprios são vítimas, sendo obrigados a trabalhar em longos turnos e espancados fisicamente. Assim, quando uma vítima pede uma videochamada, os chefes do golpe chamam um “modelo de IA” especializado com fortes habilidades interpessoais para encantar a vítima. Apesar do nome, são pessoas reais contratadas para aparecer em videochamadas. O software deepfake de IA ajusta sua aparência para combinar com a pessoa fictícia que a vítima espera ver.

As operações fraudulentas veiculam anúncios de recrutamento para esses modelos, e muitos parecem dispostos a se candidatar a esses empregos. Humanity Research Consultancy, um grupo de pesquisa investigativa que rastreia cadeias de fornecimento de tráfico, identificado uma proposta de uma uzbeque de 24 anos que se autodenomina Angel. Ela alegou falar quatro idiomas e ter um ano de experiência como modelo de IA. Ela exigia US$ 7.000 mensais por seus serviços.

O crescimento de compostos fraudulentos

Como esses compostos fraudulentos existem? De acordo com Segundo o Australian Strategic Policy Institute, o golpe militar de Mianmar em 2021 ajudou a alimentar um boom de fraudes. Centros fraudulentos ao longo da fronteira com a Tailândia têm mais que dobrou à medida que os sindicatos do crime se deslocam para essa região, juntamente com Myanmar, Camboja e Laos.

Esses centros fraudulentos são frequentemente tolerados porque enchem os cofres da milícia local. Mas houve algumas contramedidas. Invasões e as repressões transfronteiriças levaram a detenções e à movimentação de um grande número de suspeitos entre países, incluindo operações que visavam complexos como o KK Park em Myawaddy. O Camboja e Mianmar também assinalaram esforços acrescidos para combater as operações fraudulentas, embora as redes continuem altamente resilientes.

Esse tipo de atividade se torna mais fácil à medida que a tecnologia melhora. As ferramentas de troca de rosto em tempo real e deepfake agora são boas o suficiente para suportar vídeo ao vivo, não apenas clipes pré-gravados. Já vimos deepfakes em tempo real usados ​​para tudo, desde entrevistas de emprego até fazendo-se passar por executivos bancários para enganar milhões. O que há de novo aqui é a escala: as pessoas que atendem dezenas ou até centenas de ligações por dia para golpes românticos e fraudes em investimentos em criptografia mostram que isso agora é uma exploração em massa.

Como fazer fique seguro

Aqui está o problema com o vídeo deepfake: os “indicadores” comuns que permitem identificá-lo estão evaporando. Houve uma época em que um sinal claro de um deepfake de IA era alguém com o número errado de dedos ou cabelos estranhos. Você pode aumentar a aposta nas ligações ao vivo pedindo a alguém que vire de lado. Peça-lhes que toquem no nariz e agitem os dedos na frente do rosto. É mais difícil para o software deepfake lidar com esse ruído extra.

Mas cuidado: os algoritmos que produzem deepfakes estão cada vez melhores e são mais capazes de lidar com esses testes. Estamos no ponto em que este pesquisador deepfake diz que muitos mais de nós seremos enganados por eles este ano.

Se você não pode confiar totalmente no que vê, recorra ao que você sabe. Tenha cuidado com contatos não solicitados, especialmente quando alguém constrói rapidamente um relacionamento emocional ou apresenta uma oportunidade de investimento. Mesmo que um perfil pareça bem estabelecido ou um site pareça legítimo, reserve um tempo para se aprofundar um pouco mais.

Evite compartilhar informações pessoais ou financeiras com alguém que você conheceu online e tenha cuidado com qualquer pessoa que o pressione a tomar decisões rápidas ou peça para transferir conversas de plataformas estabelecidas. O FBI tem algum som conselhos em seu site.

A parte mais perigosa dessa tendência de modelo de IA deepfake é que ela ajuda as operações fraudulentas a cruzar a fronteira final. Um ser humano vivo pode fechar um golpe que uma simples interação por chat não consegue. É por isso que pessoas como Angel, do Uzbequistão, têm um emprego e é por isso que você precisa estar mais alerta do que nunca.


Não apenas denunciamos golpes, nós ajudamos a detectá-los

Os riscos de cibersegurança nunca devem ultrapassar as manchetes. Se algo parecer duvidoso para você, verifique se é uma fraude usando o Malwarebytes Scam Guard. Envie uma captura de tela, cole conteúdo suspeito ou compartilhe um link, mensagem de texto ou número de telefone e diremos se é uma fraude ou se é legítimo. Disponível com Malwarebytes Premium Security para todos os seus dispositivos e no aplicativo Malwarebytes para iOS e Android.

Deseja saber mais sobre Segurança Clique Aqui!

Deixe um comentário

Translate »