O Projeto de Lei que regulamenta o uso da inteligência artificial (IA) no Brasil, PL 2.338/2023, foi aprovado em dezembro de 2024 e é visto por especialistas em segurança digital como um importante marco na regulamentação do uso dessa ferramenta no país. Agora, o texto segue para análise na Câmara dos Deputados. Basicamente, a matéria propõe diretrizes que equilibram inovação, ética e proteção dos direitos dos usuários.
Entre os principais objetivos da proposta estão:
- a proteção de direitos fundamentais, como privacidade e liberdade de expressão;
- a mitigação de riscos decorrentes do uso inadequado da IA;
- o incentivo à inovação tecnológica, com o fortalecimento da posição do Brasil no cenário global;
- garantia de segurança jurídica nas relações envolvendo IA;
- a promoção de transparência e confiança nos sistemas de IA.
Além dessas preocupações, o texto reitera que os sistemas de inteligência artificial devem respeitar os direitos humanos, preservar os valores democráticos e possibilitar a intervenção humana nas decisões automatizadas.
Especialista defende o texto e vê avanços
Em entrevista à FM O TEMPO, o especialista em segurança cibernética Rafael Franco afirma que a proposta está alinhada com as expectativas do setor de tecnologia e consegue, ao mesmo tempo, garantir segurança para os usuários que utilizam a ferramenta. No entanto, melhorias ainda podem ser feitas. Ele aponta que, no Brasil, o uso da IA ainda enfrenta obstáculos quanto à transparência e à proteção dos usuários. "Atualmente, o usuário contribui com dados e interações sem saber que está ajudando a treinar IA. As empresas, por sua vez, vendem o resultado final, mas os cidadãos fornecem essas informações de forma gratuita", explica Franco.
Outro ponto levantado por Franco é a falta de clareza nas decisões automatizadas. Ele dá o exemplo de uma situação comum em que uma pessoa tem seu pedido de crédito negado por uma instituição financeira. "Não está claro se a decisão foi tomada por um humano ou por IA. Esse é um dos aspectos que a legislação visa corrigir: tornar evidente quando uma decisão é automatizada", destaca o especialista.
Franco também explica que é preciso ter uma discussão sobre o uso ético das ferramentas de IA. Ele defende, por exemplo, que os responsáveis pelas inteligências artificiais devem ser responsabilizados por eventuais danos causados aos usuários. "A internet não é uma terra sem lei", observa, enfatizando a importância de legislações que equilibrem proteção e inovação, evitando abusos e garantindo o uso responsável da tecnologia.
Limites e Desafios da Regulamentação
A regulamentação da IA no Brasil, embora avance, ainda enfrenta vários desafios:
- fomentar inovação sem travar o desenvolvimento: o Brasil é mais consumidor do que produtor de tecnologias de IA. É crucial evitar barreiras que possam inibir o crescimento do setor nacional;
- transparência e responsabilidade: os sistemas de IA precisam ser explicáveis e auditáveis, garantindo clareza sobre a responsabilidade pelos erros e danos causados;
- proteção de dados pessoais: a Lei Geral de Proteção de Dados (LGPD) já fornece diretrizes, mas é necessário aprimorar as regulamentações específicas para a IA;
- harmonia com padrões internacionais: dada a natureza global da IA, é essencial que a legislação brasileira esteja alinhada aos padrões internacionais, garantindo competitividade e colaboração técnica.
Discussão na Câmara Fica para 2025
Embora o Projeto de Lei tenha sido aprovado no Senado, sua análise na Câmara dos Deputados deve ficar para 2025, uma vez que o tema não é considerado prioritário neste período. A atenção está voltada para a eleição da presidência da Casa e para outros debates, como a regulamentação da reforma tributária.