Um total de 27 atletas de times profissionais de basquete, beisebol, futebol americano e hóquei dos Estados Unidos foram confundidos com criminosos por uma ferramenta de reconhecimento facial desenvolvida pela Amazon, conforme denúncia da União Americana de Liberdades Civis (ACLU). No experimento, a organização comparou fotografias de 188 esportistas com uma base de dados de 20 mil retratos falados.
A empresa americana alega que o uso da inteligência artificial foi deturpado na experiência da ACLU. Essa, todavia, não é a primeira vez que sistemas do tipo apresentam comportamento enviesado e preconceituoso. O erro de identificação, portanto, reforça a importância de se discutir, cada vez mais, limites éticos e formas de mitigar efeitos danosos da utilização de recursos de Inteligência Artificial para a automatização na tomada de decisões – afinal, o emprego de sistemas algorítmicos é uma realidade que chegou para ficar.
Especialistas ponderam que o bom uso desse tipo de ferramenta depende de ampla transparência acerca de seu funcionamento, trazendo à luz tanto informações sobre quais dados são capturados quanto sobre como as decisões são tomadas. Além disso, meios para que exista efetiva fiscalização da sociedade civil são essenciais quando se pensa na implementação de sistemas algorítmicos em, por exemplo, sistemas de segurança.
“O primeiro passo para se pensar na aplicação dessas tecnologias é discutir o tema com a população e entender que estamos falando de algo que já está presente hoje em nosso dia a dia”, observa Luísa Brandão, diretora do Instituto de Referência em Internet e Sociedade (Iris BH).
O assunto também exige debate legislativo. No caso do Brasil, a pesquisadora aponta para algumas boas soluções apresentadas pela Lei Geral de Proteção de Dados Pessoais (LGPD), que entra em vigor em agosto do próximo ano. “Há previsão, por exemplo, de que você possa pedir informações sobre como seus dados são usados. Mas, para além disso, há um debate que precisamos fazer sobre a quais dados certo tipo de Inteligência Artificial, capaz de tomada de decisões, pode ter acesso”, diz.
Um dispositivo que poderia dar mais controle ao emprego de dados por essas tecnologias é o direito à revisão e à explicação, aponta Luísa. A prática já é adotada na União Europeia, de forma que pessoas que foram submetidas a decisões automatizadas, tomadas por algoritmos, possam requerer análise humana e detalhes do processo. Destacando que o mecanismo já é discutido desde a década de 80, a diretora do centro de estudos independentes sobre internet, novas tecnologias e seus impactos na sociedade demonstra preocupação em relação ao veto do presidente Jair Bolsonaro ao dispositivo da LGPD – decisão referendada há um mês pelo Congresso.
O futuro é agora
O uso de sistemas algorítmicos já é realidade em todo o mundo. Para além de recomendar filmes, como na Netflix, é através deste mecanismo que empresas definem limites de crédito ou preço de seguros de vida, por exemplo.
Cientista lembra robô da Microsoft
O cientista da computação e desenvolvedor de software Izaquiel Lopes acredita ser importante o compartilhamento do conhecimento de diversas áreas em aplicação de algoritmos de inteligência artificial. Para ilustrar seu ponto de vista, ele recorre ao emblemático caso da Tay, um robô criado pela Microsoft, em 2016, para interagir e aprender com as pessoas através do Twitter. Em 24 horas, o bot começou a disseminar mensagens de ódio. Desativada, a Tay demonstra que o aprendizado da máquina deve ser interdisciplinar, de forma que compreenda contextos sociais, históricos e culturais.
Em outro exemplo, se uma hipotética empresa adere à inteligência artificial para contratar pessoal, a ferramenta pode vir a contratar mais homens que mulheres, pois tende a seguir um padrão do banco de dados usado no aprendizado. Assim, a máquina precisaria compreender que a chegada delas ao mercado de trabalho é mais recente para, então, desfazer a distorção.
Estudos indicam viés racial
Sistema de Justiça americano para prever reincidência criminal, o Compas tornou-se célebre exemplo de como máquinas podem induzir à tomada de decisões enviesadas depois da publicação de um estudo dos pesquisadores Hany Farid e Julia Dressel, do Dartmouth College. De acordo com eles, só 65% das previsões se provaram acertadas.
No artigo, os estudiosos citam uma investigação da ONG ProPublica, que analisou 7.000 casos e constatou um comportamento racista do sistema algorítmico – mesmo que o COMPAS não use raça como critério de avaliação, o que seria ilegal. Ocorre que 44,9% dos negros identificados como potencialmente reincidentes não voltaram a cometer crimes. Em relação aos brancos, o índice foi de 23,5%. Já entre os que eram avaliados com menor chance de voltar à atividade criminosa, 28% dos negros foram presos outra vez, contra 47,7% dos brancos.
Um outro estudo, publicado na Science em fevereiro deste ano, indicou que um algoritmo – usado por muitos provedores de saúde dos EUA para prever quais pacientes necessitariam de cuidados médicos extras no futuro – privilegiava o atendimento aos brancos em detrimento aos negros. Mesmo que raça não fosse fator para a tomada de decisão, a ferramenta se baseava apenas no histórico médico dos pacientes, mas desprezava a diferenças socioeconômicas – e a forma como esse fator interfere na quantidade de vezes que uma pessoa vai ao médico.
No Congresso americano, a deputada democrata Alexandria Ocasio-Cortez é uma das relevantes vozes a confrontar a ideia de que as máquinas seriam isentas e capazes de conduzir processos de forma mais objetiva, superando o “fator humano”. Para ela, os algoritmos podem – se não forem feitas correções – automatizar preconceitos.