Divulgação
Criminosos têm explorado uma nova forma de fraude que combina técnicas de engenharia social e inteligência artificial (IA) para enganar vítimas e obter vantagens financeiras. Conhecido como "golpe do roubo da voz", o esquema tem chamado a atenção de órgãos de segurança, onde autoridades alertam sobre os riscos e reforçam medidas de prevenção.
Durante a ligação, são feitas perguntas simples, que são gravadas. Posteriormente, essas gravações podem ser manipuladas com ferramentas online para reproduzir a voz da vítima em fraudes a familiares e amigos.
Como a IA potencializa o golpe do roubo de voz
Segundo a Polícia Civil de São Paulo, serviços de deepfake de áudio permitem que criminosos copiem a voz de quem atende uma ligação, criando uma reprodução quase idêntica. Com essa técnica, eles podem ligar para outras pessoas se passando pela vítima e solicitar transferências bancárias ou dinheiro.
Hiago Kin Levi, presidente do Instituto Brasileiro de Resposta a Incidentes Cibernéticos, destacou que a popularização da IA tornou possível que até pessoas com conhecimento limitado de tecnologia consigam simular vozes de terceiros. Anderson Leite, pesquisador de segurança da Kaspersky, reforçou que alguns segundos de gravação já são suficientes para gerar uma cópia convincente de uma voz.
Recomendações para se proteger
Autoridades alertam para a importância de desconfiar de ligações inesperadas e não fornecer informações pessoais ou financeiras por telefone. Entre as medidas recomendadas estão:
Olhar Digital