Uma mãe que vive em Scottsdale, no Arizona (EUA), passou por um verdadeiro pesadelo após quase cair em golpe de sequestro falso que  utilizava inteligência artificial para simular a voz de sua filha.

Em entrevista à emissora local WKYT, Jennifer DeStefano  contou detalhes da experiência traumática que começou quando ela recebeu um telefonema de um número que não conhecia. Inicialmente, a norte-americana revela que não pretendia atender. No entanto, sua filha Briana, de 15 anos, estava em uma viagem de esqui e temia que pudesse ter ocorrido uma emergência.

“Eu pego o telefone e ouço a voz da minha filha, e ela diz: ‘Mãe!’. Ela aparece chorando. Eu perguntei: ‘O que aconteceu?’. E ela disse: 'Mãe, eu errei'', soluçando e chorando”, conta Jennifer. Segundo ela, ainda na ligação, deu para ouvir a voz de um homem dizendo: “Coloque a cabeça para trás, deite-se”.

Segundo Jennifer, os supostos sequestradores pediram que ela pagasse um resgate para liberar a adolescente em segurança. No entanto, os golpistas queriam buscar a mãe e não receber de forma eletrônica.

Segundo a WKYT, como Jennifer estava no estúdio de dança de sua outra filha, enquanto atendia à ligação, as mães preocupadas logo se prontificaram a ajudar. Uma ligou para a polícia e outra, para o pai de Brie.

Em apenas quatro minutos, conseguiram confirmar que a adolescente estava segura. Contudo,  descobriu que o esquema utilizava inteligência artificial para reproduzir a voz de sua filha, um golpe que estava acontecendo com frequência em sua vizinhança. 

"Comecei a me perguntar, tipo, se essas pessoas estavam pedindo para rastrear minha mãe e buscá-la, obviamente poderiam estar reunindo algumas informações para tentar rastrear a mim ou a alguns de meus irmãos para realmente tornar isso uma realidade", Briana disse. "Então isso definitivamente me assustou."

Especialistas alertam o perigo da IA

Os especialistas alertam que a reprodução da voz pode acontecer em questão de segundos com o software certo e está ficando mais fácil para criminosos acessarem e usarem. 

À WKYT, o professor Subbarao Kambhampati, do curso de Ciência da Computação da Universidade Estadual do Arizona, especializado em inteligência artificial, lembra que a tecnologia de clonagem de voz está cada vez melhor. “Você não pode mais confiar em seus ouvidos”.

O especialista explica que, anteriormente, criar um áudio do zero precisava de inúmeras amostras da pessoa que estava sendo clonada. Hoje em dia, de acordo com Kambhampati, uma voz pode ser reproduzida com uma amostra de apenas três segundos.

“E com os três segundos, pode chegar perto de como exatamente você fala. A maioria da clonagem de voz realmente captura a entonação, bem como a emoção”, esclarece o professor à emissora.

O agente especial Dan Mayo, do escritório do FBI (Polícia Federal dos EUA) em Phoenix, no Arizona, diz à WKYT que os golpistas que usam a tecnologia de clonagem de voz costumam encontrar suas vítimas nas redes sociais.

Para evitar um golpe semelhante de simulação de voz de inteligência artificial, os especialistas recomendam manter os perfis de mídia social privados e procurar sinais de alerta, como chamadas telefônicas de códigos de área e números de telefone desconhecidos ou internacionais.

O uso da inteligência artificial por golpistas é um alerta para que as pessoas estejam atentas e tomem precauções para evitar serem vítimas de fraudes. 

Os especialistas ressaltam ainda que é importante manter as informações pessoais em segurança e não fornecer dados a desconhecidos. Além disso, é fundamental sempre verificar a autenticidade das informações recebidas antes de tomar qualquer atitude.