O Projeto de Lei que regulamenta o uso da inteligência artificial (IA) no Brasil, PL 2.338/2023, foi aprovado em dezembro de 2024 e é visto por especialistas em segurança digital como um importante marco na regulamentação do uso dessa ferramenta no país. Agora, o texto segue para análise na Câmara dos Deputados. Basicamente, a matéria propõe diretrizes que equilibram inovação, ética e proteção dos direitos dos usuários. 

Entre os principais objetivos da proposta estão: 

  • a proteção de direitos fundamentais, como privacidade e liberdade de expressão; 
  • a mitigação de riscos decorrentes do uso inadequado da IA; 
  • o incentivo à inovação tecnológica, com o fortalecimento da posição do Brasil no cenário global; 
  •  garantia de segurança jurídica nas relações envolvendo IA; 
  • a promoção de transparência e confiança nos sistemas de IA. 

Além dessas preocupações, o texto reitera que os sistemas de inteligência artificial devem respeitar os direitos humanos, preservar os valores democráticos e possibilitar a intervenção humana nas decisões automatizadas. 

Especialista defende o texto e vê avanços 

Em entrevista à FM O TEMPO, o especialista em segurança cibernética Rafael Franco afirma que a proposta está alinhada com as expectativas do setor de tecnologia e consegue, ao mesmo tempo, garantir segurança para os usuários que utilizam a ferramenta. No entanto, melhorias ainda podem ser feitas. Ele aponta que, no Brasil, o uso da IA ainda enfrenta obstáculos quanto à transparência e à proteção dos usuários. "Atualmente, o usuário contribui com dados e interações sem saber que está ajudando a treinar IA. As empresas, por sua vez, vendem o resultado final, mas os cidadãos fornecem essas informações de forma gratuita", explica Franco. 

Outro ponto levantado por Franco é a falta de clareza nas decisões automatizadas. Ele dá o exemplo de uma situação comum em que uma pessoa tem seu pedido de crédito negado por uma instituição financeira. "Não está claro se a decisão foi tomada por um humano ou por IA. Esse é um dos aspectos que a legislação visa corrigir: tornar evidente quando uma decisão é automatizada", destaca o especialista. 

Franco também explica que é preciso ter uma discussão sobre o uso ético das ferramentas de IA. Ele defende, por exemplo, que os responsáveis pelas inteligências artificiais devem ser responsabilizados por eventuais danos causados aos usuários. "A internet não é uma terra sem lei", observa, enfatizando a importância de legislações que equilibrem proteção e inovação, evitando abusos e garantindo o uso responsável da tecnologia. 

Limites e Desafios da Regulamentação 

A regulamentação da IA no Brasil, embora avance, ainda enfrenta vários desafios: 

  • fomentar inovação sem travar o desenvolvimento: o Brasil é mais consumidor do que produtor de tecnologias de IA. É crucial evitar barreiras que possam inibir o crescimento do setor nacional; 
  • transparência e responsabilidade: os sistemas de IA precisam ser explicáveis e auditáveis, garantindo clareza sobre a responsabilidade pelos erros e danos causados; 
  • proteção de dados pessoais: a Lei Geral de Proteção de Dados (LGPD) já fornece diretrizes, mas é necessário aprimorar as regulamentações específicas para a IA; 
  • harmonia com padrões internacionais: dada a natureza global da IA, é essencial que a legislação brasileira esteja alinhada aos padrões internacionais, garantindo competitividade e colaboração técnica. 

Discussão na Câmara Fica para 2025 

Embora o Projeto de Lei tenha sido aprovado no Senado, sua análise na Câmara dos Deputados deve ficar para 2025, uma vez que o tema não é considerado prioritário neste período. A atenção está voltada para a eleição da presidência da Casa e para outros debates, como a regulamentação da reforma tributária.