Os casos de falsos nudes espalhados pelo mundo expõem o lado sombrio da Inteligência Artificial (IA). Criminosos estão abusando das novas tecnologias para manipular e compartilhar imagens - principalmente de mulheres - em sites que hospedam conteúdos pornográficos. Uma pesquisa norte-americana, realizada em 2023, revelou que os criadores de deepfakes precisam de 25 minutos para gerar um vídeo pornográfico de um minuto, usando apenas uma imagem nítida do rosto.

O estudo chamado State of deepfakes: realities, threats, and impact - Estado de deepfakes: realidades, ameaças e impacto, em tradução literal - analisou 95.820 vídeos em 85 canais inseridos em diversas plataformas online. Também identificou a existência de vários aplicativos disponíveis para manipulação digital de imagens. “Um deles - baseado no Windows - se destaca por suas baixas barreiras de entrada, tornando-o bem acessível a uma ampla gama de usuários que, na maioria das vezes, não precisam pagar para produzir os materiais,” cita a pesquisa. 

Conforme o levantamento, que ouviu 1.522 participantes do sexo masculino dos Estados Unidos - que tinham acessado conteúdo sexual pelo menos uma vez nos últimos seis meses - ainda realça que a pornografia representa 98% de todos os vídeos deepfake online. “A facilidade com que esses conteúdos são produzidos contrasta de maneira perturbadora com os profundos danos que podem causar. A criação de uma deepfake pode ser uma tarefa rápida, mas as repercussões para a vida da vítima são profundas e duradouras,” explica a especialista em direito digital e cibercrimes Chayana Rezende. 

Público-alvo

O estudo também destacou que 99% dos indivíduos alvos de pornografia deepfake são mulheres. Além disso, mostrou que 94% das vítimas trabalham na indústria do entretenimento. Em outubro do ano passado, a atriz Isis Valverde, de 37 anos, registrou boletim de ocorrência na Delegacia de Repressão a Crimes Cibernéticos do Rio de Janeiro, depois de saber que estavam circulando falsos nudes dela na internet. A celebridade integra uma lista de outras famosas que também enfrentaram situações parecidas, como as atrizes Gal Gadot, Emma Watson e Scarlett Johansson e a cantora Taylor Swift. 

Segundo a advogada Chayana Rezende, as vítimas devem adotar uma série de medidas para mitigar os prejuízos. “A primeira é a documentação do fato com provas robustas. Registre todas as evidências pertinentes, como capturas de tela das imagens e vídeos divulgados, URLs das páginas onde o conteúdo está hospedado e os perfis dos responsáveis pela disseminação. Notifique, imediatamente, as plataformas que hospedam o conteúdo ilícito. O Marco Civil da Internet, em vigor no Brasil, preconiza a obrigatoriedade da remoção de imagens e vídeos que envolvam nudez ou atos sexuais sem o consentimento da vítima.” 

A especialista acrescenta outras ações a serem tomadas pelas pessoas afetadas. “Dirija-se a uma delegacia de crimes cibernéticos para registrar a ocorrência do fato, garantindo a formalização da queixa. Em cidades onde não há delegacias especializadas, vá à mais próxima, ou até mesmo faça um boletim de ocorrência online. Com as provas devidamente registradas, a vítima pode dar início às medidas judiciais cabíveis, contra os perpetradores e, se necessário, contra as plataformas que não cumprirem com a obrigação de remover o conteúdo em tempo hábil.” 

A legislação

No Brasil, a divulgação de material pornográfico, sem o devido consentimento, é crime. As penas variam de 1 a 5 anos de reclusão para casos envolvendo adultos. Se a vítima for menor de idade, a penalidade, conforme o Estatuto da Criança e do Adolescente (ECA), pode chegar a 6 anos de prisão. Atualmente, tramita na Câmara dos Deputados o projeto 5.695/23, para criminalizar o uso de inteligência artificial (IA) com o objetivo de alterar ou criar fotos, vídeos e áudios para causar danos e constranger mulheres. O texto - que, se aprovado, será incluído na Lei Maria da Penha - sugere até quatro anos de cadeia para o autor. 

Ameaça para escolas 

No fim do ano passado, ao menos dois episódios de falsos nudes em escolas repercutiram no Brasil. Em Belo Horizonte, um estudante da rede particular de ensino usou IA para produzir imagens de cerca de 10 alunas adolescentes e compartilhar no Instagram. No Rio de Janeiro, a Polícia Civil investigou o vazamento de fotomontagens entre estudantes de um colégio particular da Barra da Tijuca. Os casos acenderam um alerta na comunidade escolar e despertou a atenção dos órgãos de segurança. 

“A gente teme que esses casos possam ser mais recorrentes devido a popularização dessa tecnologia. Isso porque não é preciso ter muito recurso para fazer essa adulteração de imagens. Basta um computador ou smartphone e conseguir acesso a uma rede de internet”, apontou na época o delegado  ngelo Ramalho, da Polícia Civil de Minas Gerais (PCMG), responsável pela investigação do episódio ocorrido na capital mineira.

Veja outros dados da pesquisa Estado de deepfakes: realidades, ameaças e impacto

  • 48% dos entrevistados ​​já viram pornografia deepfake pelo menos uma vez;
  • 74% dos usuários de pornografia deepfake não se sentem culpados por isso;
  • 7 dos 10 principais sites de pornografia hospedam deepfakes;
  • entre 2022 e 2023, a quantidade de pornografia deepfake criada aumentou em 464%;
  • Coreia do Sul é o país mais visado pela pornografia deepfake;
  • 1 em cada 5 usuários diários de pornografia trocou pornografia regular por pornografia deepfake;
  • 20% dos participantes consideraram aprender a criar pornografia deepfake;
  • 73% dos entrevistados gostariam de denunciar às autoridades se alguém próximo a eles se tornasse vítima de pornografia deepfake;
  • a curiosidade tecnológica é a razão mais significativa por trás de assistir pornografia deepfake (57%), seguida por atração por celebridades (48%) e realização de fantasia (36%);
  • sites pornográficos deepfake têm 90% de participação no mercado;
  • o número total de visualizações de vídeos nos dez principais sites dedicados à pornografia deepfake é de 303.640.207.