Ao continuar navegando pelo Portal Ozaca News, você concorda com os nossos Termos de Uso e com a nossa Política de Privacidade, incluindo o tratamento de dados pessoais de acordo com a LGPD.


Saiba mais sobre a nossa política de privacidade e termos de uso
Aceitar e fechar
Fechar
 

Golpes de clonagem de voz via IA crescem em 2025

Golpes com clonagem de voz se intensificam com uso de IA e alertam para novos riscos

SEGURANÇA DIGITAL
ATHEN DATA

 - 3 minutos de leitura

Golpes de clonagem de voz via IA crescem em 2025
Legenda: Golpes de clonagem de voz avançam com uso de Inteligência Artificial Foto: Imagem Ilustrativa
A evolução da inteligência artificial, que já transforma setores como saúde, comunicação e marketing, também está sendo usada por criminosos para ampliar a sofisticação dos golpes. A clonagem de voz com IA — também chamada de deepfake de áudio — tornou-se uma nova ameaça para pessoas físicas e empresas. 


Como funciona o golpe
O método geralmente segue este fluxo:
Captação da voz: através de áudios públicos ou links antigos, ou até mesmo por meio de ligações silenciosas (“mudas”) em que o usuário atende, mas a outra ponta não fala. Essas ligações são usadas para coletar amostras da voz da vítima. 
Processamento por IA: um software analisa o timbre, ritmo e entonação da voz, gerando uma réplica que soa quase idêntica.
Uso em fraude: a voz clonada é usada para ligar para familiares ou conhecidos, simulando emergências ou pedidos de ajuda financeiros com base na confiança do interlocutor. 
Em um exemplo recente, criminosos clonaram a voz de um gerente de banco e usaram essa voz para convencer uma cliente a autorizar uma transferência de quase R$ 100 mil. 

 Por que esses golpes são perigosos
Confiança emocional: ouvir a voz de alguém conhecido reduz a percepção de risco e facilita a ação fraudulenta.
Difícil detecção humana: estudos apontam que pessoas têm dificuldade em identificar deepfakes de voz, mesmo diante de áudios falsos bem produzidos. 
Acesso fácil a dados públicos: vídeos, áudios e postagens nas redes sociais oferecem material para treinar modelos de clonagem. 

Como se proteger
Para reduzir o risco de ser alvo desse tipo de golpe, especialistas recomendam:
Evite atender ligações de números desconhecidos e, se atender, não fale nada até o outro lado se manifestar. 
Estabeleça uma “palavra-código” familiar para confirmar sua identidade em casos de ligações emergenciais.
Use smartphone com bloqueio de chamadas de desconhecidos, recurso presente em iPhones e Androids. 
Desconfie de pedidos urgentes de dinheiro, transferência ou acesso a contas, especialmente quando combinados com apelos emocionais.
Evite divulgar áudios pessoais ou gravações que exponham sua voz em redes abertas.
Caso receba algo suspeito, registre ocorrência no órgão policial competente e preserve gravações e evidências.

Impactos para empresas e comunicação digital
Organizações com alto nível de comunicação — como bancos, operadoras, empresas de atendimento — ficam especialmente vulneráveis. Um CEO ou executivo fictício, com voz clonada, pode autorizar transações ou dar instruções falsas.

Além disso, a confiança nas chamadas e nos áudios telefônicos será cada vez mais posta à prova. Será crucial investir em soluções de autenticação de chamadas, validação multi-canal e tecnologia ant deepfake.

A Ozaca e Athen Data alertam: vigilância deve ser constante
No cenário atual, é vital que empresas e pessoas mantenham consciência sobre essas novas ameaças e adotem medidas preventivas a partir de hoje. A Ozaca Comunicação, em parceria com a Athen Data, reforça seu compromisso com a segurança da informação e proteção de dados, oferecendo orientação estratégica e apoio para proteção digital.
Fonte: Record News