Noticias

Novo golpe com voz clonada por inteligência artificial

Criminosos estão usando chamadas “mudas” para capturar trechos de voz e criar imitações realistas com IA. O alerta é da Polícia Civil, que orienta: não fale nada ao atender ligações suspeitas — nem mesmo “alô”.

A Polícia Civil de São Paulo emitiu um alerta urgente sobre uma nova modalidade de golpe que vem se espalhando pelo Brasil e preocupa especialistas em segurança digital. Trata-se de uma fraude que combina ligações “mudas” com clonagem de voz gerada por inteligência artificial (IA).

O golpe é sofisticado e, ao mesmo tempo, assustadoramente simples. Os criminosos ligam para a vítima, permanecem em silêncio por alguns segundos e encerram a chamada. Nesse curto período, o aparelho grava o áudio ambiente — incluindo a respiração, ruídos ou até uma palavra dita por reflexo, como o clássico “alô”.

Esses fragmentos de voz são então analisados e processados por softwares de IA generativa, capazes de recriar com alta fidelidade o tom, o ritmo e o jeito de falar da pessoa. Com esse material, os golpistas passam a se passar por ela em chamadas, mensagens de áudio ou vídeos falsos enviados a familiares e amigos.

Segundo especialistas em cibersegurança, três segundos de gravação já são suficientes para que a tecnologia produza uma imitação praticamente idêntica à voz original.

🚨 #PCSPAlerta – Novo golpe com Inteligência Artificial! Criminosos estão usando a clonagem de voz em ligações mudas para aplicar golpes. ⚠️ 👉 Como funciona? Eles capturam sua voz em chamadas silenciosas,

Como o golpe é aplicado: o passo a passo da fraude

pcsp #segurancapublica #golpes #ia #políciacivil

Os criminosos têm aperfeiçoado suas estratégias com o avanço da tecnologia de clonagem de voz. A Polícia Civil explica que o golpe costuma seguir três etapas principais:

  1. Coleta da voz

    • O criminoso faz uma ligação “muda” para a vítima.

    • Se a pessoa disser “alô”, “quem é?” ou qualquer palavra, o sistema de gravação já capta o som necessário.

  2. Geração da voz artificial

    • Com poucos segundos gravados, o áudio é processado em plataformas de IA generativa capazes de imitar o timbre e a entonação humana.

    • Em minutos, o golpista tem uma versão digital da voz da vítima, pronta para ser usada em golpes de engenharia social.

  3. Aplicação do golpe

    • O criminoso liga para familiares, amigos ou colegas, fingindo ser a vítima.

    • Alega estar em apuros, pede transferências bancárias urgentes ou solicita informações pessoais.

    • Como a voz soa idêntica à original, muitos caem no golpe sem desconfiar.

Há relatos de casos em que o criminoso usa o áudio clonado para simular choro, desespero ou situações de sequestro, aumentando o impacto emocional sobre quem recebe a ligação.

A força da IA generativa e o risco das vozes sintéticas

Cómo identificar un audio hecho con inteligencia artificial?

A inteligência artificial generativa, capaz de criar conteúdo realista com base em dados de entrada, revolucionou áreas como o cinema, a dublagem e os assistentes virtuais. No entanto, essa mesma tecnologia vem sendo usada por criminosos para fins ilícitos, incluindo deepfakes visuais e sonoros.

As ferramentas de clonagem de voz disponíveis atualmente — muitas delas de acesso livre ou barato — permitem reproduzir características minuciosas, como sotaque, pausas na fala e emoção.

Em 2024, por exemplo, um caso nos Estados Unidos chamou atenção quando uma mãe recebeu uma ligação da suposta “filha sequestrada” — voz idêntica à real, mas inteiramente criada por IA. A mulher quase realizou uma transferência de dinheiro antes de confirmar que a filha estava segura.

Essas ocorrências se tornaram tão frequentes que empresas de cibersegurança e autoridades policiais de diversos países já tratam os deepfakes de voz como uma nova categoria de crime digital.

O alerta da Polícia Civil de São Paulo

A Delegacia de Crimes Cibernéticos da Polícia Civil de São Paulo divulgou orientações preventivas para evitar que mais pessoas caiam no golpe. Entre as recomendações:

  • 🚫 Não fale nada em chamadas suspeitas, principalmente se houver silêncio do outro lado da linha.

  • 📵 Desligue imediatamente e bloqueie o número.

  • ⚠️ Oriente familiares e amigos sobre o risco, especialmente idosos, que são alvos frequentes.

  • 🔒 Desconfie de pedidos de dinheiro ou transferências urgentes, mesmo quando a voz pareça familiar.

  • 📞 Confirme a situação por outro canal, como mensagem de texto, ligação em vídeo ou contato presencial.

  • 📱 Evite divulgar áudios públicos com informações pessoais nas redes sociais.

Segundo a polícia, a conscientização é a melhor defesa. Assim como o “golpe do WhatsApp” e as mensagens falsas de sequestro, o uso da clonagem de voz depende da reação emocional da vítima — e da falta de verificação imediata.

Por que três segundos bastam para clonar sua voz

De acordo com especialistas da área de cibersegurança e inteligência artificial, três segundos de voz humana contêm informações únicas suficientes para identificar e replicar o timbre de uma pessoa.

A IA analisa fatores como:

  • Frequência sonora e padrões de fala;

  • Ritmo respiratório e pausas naturais;

  • Tom médio e intensidade vocal;

  • Formantes vocais (características da ressonância da laringe).

Com esses parâmetros, os sistemas modernos de IA constroem um modelo digital de voz, capaz de gerar novas falas em qualquer contexto, inclusive simulando emoções.

Alguns softwares ainda são capazes de copiar o sotaque e o vocabulário de uma região específica, tornando a fraude ainda mais convincente.

Os perigos da engenharia social com voz clonada

O grande risco desse tipo de golpe é que ele não depende de falhas tecnológicas, mas de manipulação emocional.

Os criminosos exploram o pânico, a pressa e a confiança das pessoas. Quando alguém escuta uma voz idêntica à de um ente querido pedindo ajuda, tende a agir instintivamente — muitas vezes antes de verificar os fatos.

Esse tipo de manipulação é conhecido como engenharia social, e é uma das ferramentas mais eficazes no arsenal dos golpistas modernos.

Além das ligações, áudios falsos também circulam em aplicativos de mensagem, como WhatsApp e Telegram, aumentando o alcance e a credibilidade das fraudes.

Casos e relatos: A ameaça já é real

Nos últimos meses, a Polícia Civil paulista e outras forças de segurança do país receberam vários relatos de tentativas de golpe com voz clonada.

Em um dos casos, uma mulher recebeu uma ligação de um número desconhecido. Ao atender, ouviu apenas silêncio e desligou. Horas depois, sua mãe recebeu um áudio com a voz idêntica da filha, dizendo:

“Mãe, estou em apuros. Preciso de dinheiro agora.”

A voz era sintética, criada a partir dos poucos segundos em que ela dissera “alô” na primeira ligação. A família quase fez a transferência antes de descobrir a farsa.

Esses casos revelam como a tecnologia, quando usada de forma criminosa, torna-se uma arma poderosa — e como a informação é a principal forma de proteção.

Como se proteger: Guia rápido de prevenção

🔹 1. Seja cuidadoso ao atender números desconhecidos.
Se a ligação estiver muda, não diga nada. Apenas desligue e bloqueie.

🔹 2. Configure autenticações adicionais.
Use senhas de verificação em dois fatores em bancos, redes sociais e aplicativos de mensagens.

🔹 3. Evite publicar áudios pessoais abertamente.
Vídeos e stories nas redes podem fornecer material para falsificações.

🔹 4. Crie palavras-código familiares.
Combine com parentes uma senha verbal secreta para emergências — algo que apenas vocês saibam.

🔹 5. Desconfie de pressa e desespero.
Golpistas sempre tentam gerar urgência. Verifique a história por outro canal antes de tomar qualquer atitude.

🔹 6. Denuncie.
Registre o número e faça boletim de ocorrência online no site da Polícia Civil.

O lado ético da inteligência artificial

O avanço da IA generativa levanta questões éticas e legais urgentes. Ferramentas de clonagem de voz são usadas em produções audiovisuais, dublagens e acessibilidade — mas o uso indevido mostra como a ausência de regulamentação pode abrir brechas perigosas.

Especialistas defendem a criação de leis específicas para deepfakes de voz, assim como políticas que obriguem as empresas de tecnologia a inserir marcadores digitais nas vozes geradas artificialmente, facilitando a identificação de falsificações.

Enquanto isso não acontece, a educação digital torna-se o escudo mais eficaz. Saber que esses golpes existem é o primeiro passo para não se tornar uma vítima.

Conclusão: a voz que engana  e como se proteger dela

O novo golpe revelado pela Polícia Civil de São Paulo mostra como a tecnologia, quando cai em mãos erradas, pode se transformar em uma arma de engano e manipulação.

Em poucos segundos, uma simples ligação silenciosa pode render material suficiente para clonar uma voz com perfeição assustadora.

A melhor defesa, segundo os especialistas, é a precaução aliada à informação. Desconfiar, verificar e alertar outras pessoas são atitudes que salvam não só o dinheiro, mas a tranquilidade de quem poderia ser enganado.

No mundo atual, em que a inteligência artificial está cada vez mais presente, proteger sua voz é proteger sua identidade.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


ASSUNTOS EM ALTA

Botão Voltar ao topo