PJ alerta para fraudes com vozes clonadas por Inteligência Artificial
A Polícia Judiciária (PJ) alerta, através de uma publicação nas suas redes sociais, para o crescimento de burlas que recorrem à Inteligência Artificial (IA) para imitar vozes humanas com elevado grau de precisão, tornando os esquemas mais difíceis de detectar.
Segundo a PJ, as chamadas 'deepfakes de áudio' permitem reproduzir a voz de qualquer pessoa a partir de curtas gravações. A partir daí, os criminosos conseguem gerar novas falas de forma rápida, criando contactos falsos que parecem credíveis. Este tipo de esquema tem sido usado sobretudo em fraudes financeiras, com tentativas de manipulação para obtenção de dinheiro ou dados pessoais.
Para reduzir o risco, a autoridade deixa algumas recomendações: nunca seguir instruções de operações delicadas, não fornecendo dados pessoais ou executar transferências de dinheiro, escutar com atenção ruídos descontextualizados e sons demasiado perfeitos ou distorcidos, analisar em detalhe o tom, naturalidade ou variações de voz.
Outra das medidas sugeridas passa pela definição prévia de perguntas ou códigos entre familiares, que possam ser usados para validar situações suspeitas. Em caso de dúvida, a recomendação é tentar alterar o rumo da conversa ou confirmar a identidade por outros meios.
A PJ recomenda ainda que reveja os perfis nas redes sociais e que mude para privado e reforce definições de privacidade e segurança.
Destaca ainda o papel do seu Laboratório de Polícia Científica, que realiza análises áudio e comparações biométricas para avaliar a autenticidade de gravações. Segundo a instituição, este tipo de perícia tem sido determinante na investigação criminal, havendo casos em que suspeitos são identificados precisamente pela voz.
Mais Casos
A carregar...
Não existe mais conteúdo
Carregar mais notícias
Erro ao carregar mais conteúdo