Inteligência Artificial utilizada em golpe de falso sequestro no Arizona

Foi então que descobriram que os criminosos usaram inteligência artificial para reproduzir a voz da filha, um golpe que estava se tornando comum na região

Por Plox

04/05/2023 11h45 - Atualizado há cerca de 1 ano

Uma moradora de Scottsdale, no Arizona (EUA), viveu momentos de angústia ao ser vítima de um golpe de falso sequestro. O diferencial dessa ocorrência está no uso da inteligência artificial pelos criminosos para simular a voz da filha da vítima.

Traumática experiência telefônica

Jennifer DeStefano recebeu uma ligação de um número desconhecido. Apesar de hesitar em atender, decidiu fazê-lo, pois sua filha Briana, de 15 anos, estava em uma viagem de esqui e poderia ser uma emergência. Jennifer relatou à emissora local WKYT que, ao atender, ouviu a voz de sua filha chorando e gritando, e um homem ordenando que ela se deitasse.

Os supostos sequestradores exigiram um resgate, mas, em vez de receber o pagamento eletronicamente, queriam buscar a mãe pessoalmente. Com a ajuda de outras mães presentes no estúdio de dança onde Jennifer estava, conseguiram confirmar em apenas quatro minutos que a adolescente estava segura. Foi então que descobriram que os criminosos usaram inteligência artificial para reproduzir a voz da filha, um golpe que estava se tornando comum na região.

 

 Foto: Facebook/jennifer.destefano.528/Reprodução

Especialistas alertam sobre o perigo da IA na clonagem de voz

O professor Subbarao Kambhampati, especialista em inteligência artificial da Universidade Estadual do Arizona, afirmou à WKYT que a tecnologia de clonagem de voz está cada vez mais avançada e que, atualmente, uma voz pode ser reproduzida com uma amostra de apenas três segundos. "Você não pode mais confiar em seus ouvidos", alerta o especialista.

Dan Mayo, agente especial do FBI (Polícia Federal dos EUA) em Phoenix, informou que os golpistas que utilizam a tecnologia de clonagem de voz geralmente encontram suas vítimas nas redes sociais.

Recomendações para evitar golpes de IA

Para prevenir fraudes como a que ocorreu com Jennifer DeStefano, especialistas aconselham manter os perfis de mídia social privados e ficar atentos a sinais de alerta, como chamadas telefônicas de códigos de área desconhecidos ou números internacionais. Além disso, é fundamental manter as informações pessoais em segurança, não fornecer dados a estranhos e sempre verificar a autenticidade das informações recebidas antes de tomar qualquer atitude.

O uso da inteligência artificial por golpistas é um lembrete para que as pessoas estejam sempre atentas e tomem precauções necessárias para evitar serem vítimas de fraudes.

Destaques