Golpes de clonagem de voz via IA crescem em 2025
Golpes com clonagem de voz se intensificam com uso de IA e alertam para novos riscos

A evolução da inteligência artificial, que já transforma setores como saúde, comunicação e marketing, também está sendo usada por criminosos para ampliar a sofisticação dos golpes. A clonagem de voz com IA — também chamada de deepfake de áudio — tornou-se uma nova ameaça para pessoas físicas e empresas.
Como funciona o golpe
O método geralmente segue este fluxo:
Captação da voz: através de áudios públicos ou links antigos, ou até mesmo por meio de ligações silenciosas (“mudas”) em que o usuário atende, mas a outra ponta não fala. Essas ligações são usadas para coletar amostras da voz da vítima.
Processamento por IA: um software analisa o timbre, ritmo e entonação da voz, gerando uma réplica que soa quase idêntica.
Uso em fraude: a voz clonada é usada para ligar para familiares ou conhecidos, simulando emergências ou pedidos de ajuda financeiros com base na confiança do interlocutor.
Em um exemplo recente, criminosos clonaram a voz de um gerente de banco e usaram essa voz para convencer uma cliente a autorizar uma transferência de quase R$ 100 mil.
Por que esses golpes são perigosos
Confiança emocional: ouvir a voz de alguém conhecido reduz a percepção de risco e facilita a ação fraudulenta.
Difícil detecção humana: estudos apontam que pessoas têm dificuldade em identificar deepfakes de voz, mesmo diante de áudios falsos bem produzidos.
Acesso fácil a dados públicos: vídeos, áudios e postagens nas redes sociais oferecem material para treinar modelos de clonagem.
Como se proteger
Para reduzir o risco de ser alvo desse tipo de golpe, especialistas recomendam:
Evite atender ligações de números desconhecidos e, se atender, não fale nada até o outro lado se manifestar.
Estabeleça uma “palavra-código” familiar para confirmar sua identidade em casos de ligações emergenciais.
Use smartphone com bloqueio de chamadas de desconhecidos, recurso presente em iPhones e Androids.
Desconfie de pedidos urgentes de dinheiro, transferência ou acesso a contas, especialmente quando combinados com apelos emocionais.
Evite divulgar áudios pessoais ou gravações que exponham sua voz em redes abertas.
Caso receba algo suspeito, registre ocorrência no órgão policial competente e preserve gravações e evidências.
Impactos para empresas e comunicação digital
Organizações com alto nível de comunicação — como bancos, operadoras, empresas de atendimento — ficam especialmente vulneráveis. Um CEO ou executivo fictício, com voz clonada, pode autorizar transações ou dar instruções falsas.
Além disso, a confiança nas chamadas e nos áudios telefônicos será cada vez mais posta à prova. Será crucial investir em soluções de autenticação de chamadas, validação multi-canal e tecnologia ant deepfake.
A Ozaca e Athen Data alertam: vigilância deve ser constante
No cenário atual, é vital que empresas e pessoas mantenham consciência sobre essas novas ameaças e adotem medidas preventivas a partir de hoje. A Ozaca Comunicação, em parceria com a Athen Data, reforça seu compromisso com a segurança da informação e proteção de dados, oferecendo orientação estratégica e apoio para proteção digital.
Como funciona o golpe
O método geralmente segue este fluxo:
Captação da voz: através de áudios públicos ou links antigos, ou até mesmo por meio de ligações silenciosas (“mudas”) em que o usuário atende, mas a outra ponta não fala. Essas ligações são usadas para coletar amostras da voz da vítima.
Processamento por IA: um software analisa o timbre, ritmo e entonação da voz, gerando uma réplica que soa quase idêntica.
Uso em fraude: a voz clonada é usada para ligar para familiares ou conhecidos, simulando emergências ou pedidos de ajuda financeiros com base na confiança do interlocutor.
Em um exemplo recente, criminosos clonaram a voz de um gerente de banco e usaram essa voz para convencer uma cliente a autorizar uma transferência de quase R$ 100 mil.
Por que esses golpes são perigosos
Confiança emocional: ouvir a voz de alguém conhecido reduz a percepção de risco e facilita a ação fraudulenta.
Difícil detecção humana: estudos apontam que pessoas têm dificuldade em identificar deepfakes de voz, mesmo diante de áudios falsos bem produzidos.
Acesso fácil a dados públicos: vídeos, áudios e postagens nas redes sociais oferecem material para treinar modelos de clonagem.
Como se proteger
Para reduzir o risco de ser alvo desse tipo de golpe, especialistas recomendam:
Evite atender ligações de números desconhecidos e, se atender, não fale nada até o outro lado se manifestar.
Estabeleça uma “palavra-código” familiar para confirmar sua identidade em casos de ligações emergenciais.
Use smartphone com bloqueio de chamadas de desconhecidos, recurso presente em iPhones e Androids.
Desconfie de pedidos urgentes de dinheiro, transferência ou acesso a contas, especialmente quando combinados com apelos emocionais.
Evite divulgar áudios pessoais ou gravações que exponham sua voz em redes abertas.
Caso receba algo suspeito, registre ocorrência no órgão policial competente e preserve gravações e evidências.
Impactos para empresas e comunicação digital
Organizações com alto nível de comunicação — como bancos, operadoras, empresas de atendimento — ficam especialmente vulneráveis. Um CEO ou executivo fictício, com voz clonada, pode autorizar transações ou dar instruções falsas.
Além disso, a confiança nas chamadas e nos áudios telefônicos será cada vez mais posta à prova. Será crucial investir em soluções de autenticação de chamadas, validação multi-canal e tecnologia ant deepfake.
A Ozaca e Athen Data alertam: vigilância deve ser constante
No cenário atual, é vital que empresas e pessoas mantenham consciência sobre essas novas ameaças e adotem medidas preventivas a partir de hoje. A Ozaca Comunicação, em parceria com a Athen Data, reforça seu compromisso com a segurança da informação e proteção de dados, oferecendo orientação estratégica e apoio para proteção digital.
Fonte: Record News







