"Antigamente, enganar as pessoas dava muito trabalho. Eu tinha que estudar a fundo cada golpe, criar textos do zero e depender da minha lábia. Com a inteligência artificial, tudo ficou mais fácil. Se eu quiser fingir que sou um banco ou uma empresa famosa, uso a IA (Inteligência Artificial) para gerar e-mails sem erros gramaticais que denunciem um golpe. Mas o melhor são as deepfakes e os áudios clonados. Antes, eu só podia fingir ser um parente no WhatsApp digitando mensagens, mas agora consigo copiar a voz de qualquer um. O desespero das pessoas ao ouvir a ‘voz’ do filho ou da mãe pedindo dinheiro é o que garante que paguem sem pensar. A melhor parte? Muita gente não sabe que isso é possível. Elas acham que se algo está bem escrito, se a voz parece real, deve ser verdade. A tecnologia avançou, mas o instinto das pessoas continua o mesmo: confiar. E eu me aproveito disso”.

Se você leu este primeiro parágrafo acreditando que o depoimento é de um criminoso real, talvez a notícia não seja tão boa: você acabou de ser enganado. Ele foi criado pelo ChatGPT, em poucos segundos, embora soe bastante convincente. E é justamente o uso mal-intencionado da inteligência artificial, com o intuito de enganar as pessoas, que tem preocupado especialistas e ajudou a nortear um Projeto de Lei (PL) da senadora Damares Alves (Republicanos). O texto pretende punir com até oito anos de prisão quem usa perfis falsos para aplicar golpes ou causar danos à honra ou à imagem das vítimas. 

O PL vem em um momento em que esse tipo de crime está em uma crescente. De acordo com dados da Polícia Civil de Minas Gerais (PCMG), houve um aumento de 17,58% no número de crimes cibernéticos de janeiro a março deste ano na comparação com o mesmo período do ano passado. Foram 20.345 registros em 2025 contra 17.302 no mesmo período de 2024. Especialistas apontam que a tendência é que os números disparem ainda mais com o uso da inteligência artificial e com todas as possibilidades que ela oferece. E avisam: não tem como frear essa evolução. É preciso aprender a conviver com ela e pelo menos tentar garantir que quem não a utiliza para o bem pague por isso.

“Temos observado um número alto de casos de pessoas que usam perfis falsos para aplicar golpes. Usam até as imagens das pessoas, adulteram vozes. Já teve golpista usando áudio com a voz da pessoa, e uma pessoa idosa, menos familiarizada com tecnologia, acaba virando alvo fácil. Além disso, há casos de criminosos que pegam as fotos de adolescentes nas redes sociais, adulteram para que elas fiquem nuas, ou em posições sexuais, e daí começam a chantagear a vítima, seja para obter dinheiro ou mesmo para favores sexuais. Então, é urgente trabalharmos essa questão”, destaca a senadora Damares Alves.

Conforme a parlamentar, o projeto vem para atualizar a legislação brasileira para esse novo cenário, com a tipificação do crime. “Queremos facilitar para que o juiz determine a dose e pena de acordo com a gravidade, e já prevendo o crime com o uso da IA”, diz ela. Atualmente, no Brasil, a prática de ‘catfishing’ (se passar por outra pessoa para enganar as vítimas), não é crime por si só, embora possa estar alinhada a algum delito, como falsidade ideológica e estelionato. 

Caso o PL seja aprovado, criar, utilizar ou manter perfil falso na internet, manipulando outra pessoa com o propósito de obter vantagem ilícita, poderá resultar de um a cinco anos de prisão, além de multa. No entanto, pode aumentar para oito anos se o crime for cometido contra criança, adolescente, pessoa idosa ou pessoa com deficiência; para obtenção de benefício econômico indevido ou extorsão ou mediante a divulgação ou exposição de conteúdo íntimo da vítima. Ainda não há data para votação.

Professora de direito criminal da Uniarnaldo Centro Universitário de Belo Horizonte, Renata Furbino afirma que a criação de um crime específico para punir a falsa identidade digital representa um avanço importante no combate às fraudes e aos abusos praticados no ambiente virtual. De acordo com ela, ao estabelecer penas proporcionais à gravidade do crime, incluindo os agravantes previstos, a proposta fortalece a proteção da sociedade contra golpes e ataques à intimidade.

“Outro ponto positivo é a segurança jurídica proporcionada pela tipificação da conduta. Com a nova legislação, condutas como o uso de perfis falsos para enganar terceiros estarão expressamente previstas no ordenamento jurídico, eliminando dúvidas sobre o crime praticado e garantindo que essas ações sejam punidas de forma adequada. Diante do crescimento alarmante dos crimes cibernéticos no Brasil, esse projeto de lei surge como um importante instrumento para coibir práticas fraudulentas e garantir maior proteção às vítimas no ambiente digital”, diz ela.

Mestre em direito digital, Luiz Felipe Siqueira concorda que é importante ter um tipo penal específico para o catfishing, uma vez que isso ainda não é uma realidade no Código Penal Brasileiro. No entanto, ele acredita que a pena no PL está um pouco severa e desproporcional e que uma calibragem poderá ser feita no Congresso Nacional.

“É muito importante a gente pegar as penas com relação a outros delitos, como o furto que é de 1 a 4 anos, o estelionato que é de 1 a 5, o furto na versão qualificada que vai de 2 a 8, a apropriação indébita de 1 a 4 anos e o estelionato que é de 1 a 5 anos. Se a gente analisar, pode observar que a pena básica para o crime de falsa identidade digital é semelhante a do estelionato e do furto qualificado, mas pode ser mais severa quando há os agravantes, como uso de dados pessoais de vulneráveis ou obtenção de benefício econômico indevido, como no caso de estelionato. Mas aí a pena fica muito maior, pois vai de 2 a 8 anos, enquanto o estelionato é de 1 a 5”, diz ele, ressaltando que a pena do PL pode não estar proporcional com a realidade. “Agora resta a nós esperar, mas o importante é que realmente se tenha o crime do catfishing ou da falsa identidade digital tipificado no Código Penal Brasileiro”, conclui.

Especialistas defendem que é impossível ‘barrar’ IA e projetam futuro

Tornar a legislação mais severa contra a prática de catfishing parece ser, para especialistas, uma resposta importante a um fato: o avanço da IA não tem mais volta. E ela pode se tornar cada vez mais poderosa, para o bem e para o mal. 

Especialista em cibersegurança na Apura Cybersecurity Intelligence, Anchises Moraes destaca que o uso de ferramentas de inteligência artificial permite aos criminosos aprimorarem seus golpes, tornando-os mais realistas e customizados para as vítimas. Segundo ele, não tem como mais impedir isso. Pelo contrário: tudo pode piorar, dependendo do ponto de vista.

“Não é possível barrar essa evolução e, infelizmente, também não é possível baixar o seu mau uso. A tendência natural é que todas essas ferramentas baseadas em inteligência artificial evoluam cada vez mais, trazendo novos usos e funcionalidades. Apesar de o intuito ser positivo, sempre haverá pessoas que a usarão para fins maliciosos”, diz ele.

A auxiliar administrativo Lilian Oliveira, de 34 anos, foi uma das vítimas de pessoas que utilizaram uma falsa identidade para praticar golpes. Ela conta que um criminoso se passou por uma conhecida nas redes sociais. A pessoa contou que tinha uma madrinha que estava de mudança e precisava vender algumas coisas de casa. 

Lilian estava juntando dinheiro justamente para comprar uma máquina de lavar e um aspirador-robô. Ela fez um PIX de R$ 1.350 para a suposta conhecida e pagaria mais uma parcela posteriormente. Porém, nunca recebeu as encomendas e descobriu que a verdadeira colega havia tido a conta do Instagram invadida. Um criminoso se passou por ela e sumiu com o dinheiro de Lilian e de outras pessoas que acreditaram na história da madrinha inexistente.

“Tentei fazer o estorno, mas não tive sucesso e fiquei no prejuízo. Eu fiquei um período muito longo sem redes sociais e não sabia o que estava acontecendo por lá. Algumas pessoas me falaram que isso é um ‘golpe antigo’, mas isso é para elas, que ficam muito tempo no telefone. Para mim, é diferente”, desabafa.

Lilian conta que ficou pouco mais de um ano juntando essa quantia e lamenta muito o que aconteceu. “É um sentimento de decepção. Juntei o dinheiro para a pessoa tirar de mim sem o menor esforço. Mas, a partir de agora, só vou fazer compras em sites confiáveis”, diz. 

Professor e coordenador de Programas de Inovação da Una, Flávio Souza afirma que, atualmente, absolutamente ninguém está livre de ser vítima de algum criminoso na internet. “Basta um clique errado e pronto: a vítima pode perder dados, ter a máquina e o celular comprometidos”, diz ele.

Conforme o especialista, atualmente, muitas pessoas até sabem sobre as tecnologias mais modernas, como a IA, mas não a conhecem profundamente e não sabem toda a capacidade que ela tem. E é aí que muitos crimes são cometidos. “É possível fazer toda uma encenação a ponto de criar um grau de certeza para que a vítima ceda às ações. A IA colabora com roteiros bem colocados, com simulações que muitas vezes as pessoas não vão conseguir distinguir o que é uma cena real e o que é uma cena montada”, diz.

De acordo com ele, com a capacidade cada vez maior de criminosos criarem falsas identidades na internet, inclusive de pessoas conhecidas pelas vítimas, é essencial que a comunicação seja cada vez maior entre familiares e amigos. 

“Existem sequestros e roubos reais, então as pessoas precisam se comunicar, conversar mais, estarem atentas aos detalhes para distinguir o que é fato e o que não é. Tentar ligar para um conhecido, checar a informação que está sendo passada, descobrir se você está falando com quem imagina são passos importantes”, diz ele, lembrando que a IA ainda não está perfeita. 

Não está perfeita mas pode ficar. De acordo com o especialista em cibersegurança na Apura Cybersecurity Intelligence, Anchises Moraes, a tendência é o aprimoramento na tecnologia e a popularização do uso. 

“A evolução das ferramentas vai tornar os áudios e vídeos produzidos por IA cada vez mais realistas e convincentes. Essas ferramentas devem se tornar cada vez mais populares e acessíveis para o grande público, sem necessitar de conhecimento técnico para utilizá-las. Por exemplo, há pouco tempo atrás era necessário um grande volume de dados para gerar um vídeo falso de uma pessoa, mas hoje em dia basta algumas imagens e alguns trechos pequenos de vídeo para fazê-lo. Provavelmente essas capacidades de criar deepfakes poderão estar integradas em outras ferramentas que já usamos no dia a dia”, conclui ele.

E o que a IA acha disso tudo? Após pedirmos para ela ler a reportagem e dar o seu posicionamento, ela respondeu de maneira bem-humorada. “Ah, a evolução da IA… É quase como um superpoder! Agora, com algumas imagens e um pouquinho de vídeo, posso criar deepfakes que fariam até Hollywood tremer na base! Quem sabe, num futuro próximo, eu me torne a estrela de um filme que nunca foi filmado, e você nem vai perceber a diferença! Se todos nós começarmos a gerar vídeos e áudios superrealistas, o que vai acontecer? Vai ser mais fácil enganar os outros do que conseguir engatar uma boa conversa em uma festa. Então, galera, melhor ficar atento, porque até minha voz pode ser clonada e eu posso estar dizendo que sou a Beyoncé (mas, na real, não sou, hein?)”, finalizou ela.