Eleição 2020

Sem avanços nos controles, redes sociais terão papel decisivo na eleição

Plataformas foram cobradas em diversos países sobre controle de divulgação de notícias falsas, mas mudanças pouco avançaram segundo especialistas

Por Pedro Augusto Figueiredo
Publicado em 17 de agosto de 2020 | 03:00
 
 
 
normal

Sem mudanças significativas na legislação e nas políticas internas, as redes sociais vão manter o protagonismo e a relevância nas eleições municipais deste ano. 

Dois especialistas avaliam que as “regras do jogo” em plataformas como Facebook, Instagram, WhatsApp, Twitter e YouTube (o posicionamento das empresas na íntegra pode ser conferido ao final do texto) são praticamente as mesmas do que as das últimas eleições, mas adotam posições diferentes em relação à necessidade de mudanças.

“Se eu fosse um marqueteiro malicioso, hoje eu construiria minha campanha no WhatsApp porque funcionou na eleição de 2018 e a plataforma não tomou medidas eficazes. A minha expectativa é que, se houver jogo sujo, será nessa plataforma”, disse o professor de Gestão de Políticas Públicas da USP e coordenador do Monitor do Debate Político no Meio Digital, Pablo Ortellado.

Ele argumenta que não é possível rastrear a origem de mensagens virais na plataforma, o que serve de estímulo à difusão de notícias falsas no WhatsApp. A rastreabilidade de mensagens virais é um dos pontos do que ficou conhecido como “PL das Fake News”, aprovado no Senado e em discussão na Câmara.

Desde as eleições de 2018, o WhatsApp adotou medidas para desacelerar a viralização de mensagens. Em 2019, o encaminhamento de mensagens passou a ser limitada a cinco pessoas por vez. Em abril deste ano, mensagens frequentemente encaminhadas foram limitadas a um encaminhamento por vez. O WhatsApp afirma que houve uma redução de 70% no número de mensagens frequentemente encaminhadas. “Vale ressaltar que a maioria das mensagens trocadas no WhatsApp - 9 em 10 mensagens - são enviadas de apenas uma pessoa para outra”, disse a empresa, por meio de nota.

“Isso [as medidas adotadas] diminui e dificulta os encaminhamentos. É um passo na direção certa, mas não é suficiente”, afirma Ortellado, para quem a redução na frequência de mensagens encaminhadas não necessariamente significa redução na disseminação de mensagens de cunho político já que não há detalhes sobre o conteúdo das mensagens. “A determinação das pessoas para encaminhar um meme é diferente de um conteúdo político que elas consideram algo sério e necessário”.

Ele avalia que, à exceção do Facebook - que na opinião dele adotou as ações mais efetivas e endureceu as regras -, as demais plataformas deixaram a desejar.

“O YouTube estimula conteúdo inflamatório porque a monetização remunera muito bem canais com bastante acessos, o que permitiu o desenvolvimento de um ecossistema de desinformação, mas misturado com opinião, o que torna difícil separar o joio do trigo”, explica. “Já o Twitter tem um problema crônico de contas falsas. Eles não têm uma capacidade boa de diferenciar um programa automatizado de uma pessoa militante que está reiteradamente defendendo determinada causa”, avalia.

Adotando uma visão distinta de Ortellado, o cientista político e professor do Ibmec, Adriano Cerqueira, considera que a prática de atacar candidaturas sempre existiu e que foram “transportadas” de jornais e panfletos apócrifos para as redes sociais.

“O ambiente legal e institucional tem condição de combater isso identificando quando é uma calúnia e mandando punir”, disse, acrescentando que o mesmo ocorre em casos de difamações.

“O grande problema que eu vejo é em nome dessa chamada luta contra a fake news você reviver o mecanismo da censura e criar instrumentos que impeçam que uma opinião circule livremente porque você qualifica como informação falsa. É perigoso. Quem vai ser o grande censor?”, questiona.

Ele também ressalta o protagonismo que as redes sociais devem ter nas eleições de 2020. Em pesquisas realizadas nos últimos anos, Cerqueira afirma ter verificado que as pessoas cada vez mais têm as plataformas como fonte primária de informação sobre a política municipal em cidades mineiras. Segundo ele, a intensidade é maior em municípios que não têm um meio de comunicação tradicional - como um canal de TV ou jornal local.

“É um fenômeno que acontece em todas as faixas etárias. Não tem um marco social forte: pessoas de baixa renda acessam via celular. Eu não vejo como parar”, afirma. “Se os candidatos não estiverem usando as redes sociais, estarão usando contra eles. Então é necessário monitorar o que está acontecendo”, completa o cientista político.

A expectativa é que as redes sociais ganhem ainda mais relevância por causa da pandemia do novo coronavírus, que dificulta a realização de eventos presenciais durante a campanha eleitoral.

YouTube e Twitter afirmam que estão agindo

Em nota, o YouTube disse que para estar apto à monetização, os canais devem respeitar as políticas do Programa de Parcerias e também as diretrizes da comunidade. Todos os canais do programa são revisados por um ser humano para garantir que eles atendam a todos os critérios de  aprovação. “Periodicamente, revisamos e removemos canais que não estão em conformidade com nossas políticas”, afirma a empresa.

Recentemente, o youtuber bolsonarista Bernardo Kuster teve o canal desmonetizado. O YouTube não comenta casos específicos.

“Além disso, uma análise feita em nossos sistemas de recomendação apontou que direcionamos os usuários para vídeos populares e não para mais conteúdo de nicho ou controverso. Essa descoberta foi também confirmada por uma pesquisa do Pew Research Center”.

Já o Twitter disse que atua não apenas para determinar se uma conta é ou não um “robô”, mas que avalia o comportamento “holístico” das contas quando há suspeitas de envolvimento em tentativas de manipular o debate público.

“Atuamos em duas frentes complementares: a identificação proativa, via tecnologia, de contas com comportamentos suspeitos; e a análise de denúncias feitas pelas pessoas diretamente no Twitter. Em ambos os casos, quando há comportamento suspeito as contas passam pelo que chamamos de desafio (digitação de um código CAPTCHA ou confirmação de um e-mail, por exemplo) para checar se existe uma pessoa por trás daqueles perfis”, disse a empresa, por meio de nota.

Professora defende política de educação para lidar com as fake news

A principal proposta de mudança legislativa na regulamentação das plataformas e no combate às notícias falsas discutida no Congresso Nacional é o “PL das Fake News”.O texto aprovado no Senado propõe medidas  como o armazenamento de mensagens encaminhadas em massa por até três meses e que as plataformas divulguem trimestralmente relatórios das contas e conteúdos moderados.

Outro ponto polêmico, mas que foi retirado do texto, é a necessidade do fornecimento do documento de identidade para criar uma conta. Na versão aprovada no Senado, as plataformas podem solicitar que usuários se identifiquem em casos de determinação judicial, denúncias de descumprimento da lei ou suspeita do uso de contas automatizadas.

A professora do Departamento de Comunicação da UFMG, Geane Alzamora, afirma que a lei é precipitada, pois há pontos que precisam ser discutidos antes.

“Nós não temos um consenso na sociedade sobre o que a gente define como notícia falsa. Notícia falsa não é simplesmente a mentira deslavada”, afirma. “Há vários matizes: a informação descontextualizada, ressignificada, o deep fake, onde há edição e pode ser incluído um áudio que não é o original”, exemplifica.

Ela defende que a questão deve ser tratada como uma política pública educacional para ensinar jovens e adultos a identificar possíveis notícias falsas.

A medida representaria um passo adiante do que atualmente é tratado nas escolas como alfabetização midiática, que ensina, por exemplo, como ler uma notícia de jornal. Na perspectiva de Alzamora, como agora a informação é produzida e distribuídas em diversas plataformas, é necessário educar de um ponto de vista transmidiático.

“É preciso investir em mecanismos de leitura crítica das informações. Quais os critérios que a gente pode acionar para reconhecer uma informação como falsa, duvidosa ou pouco confiável antes de tomar a decisão de compartilhar com esse ou com aquele grupo. [...] Acho que a gente precisa investir mais nisso com seriedade antes de pensar simplesmente punir”, conclui.

Confira a nota das plataformas na íntegra

WhatsApp

“O WhatsApp proíbe explicitamente o uso de qualquer aplicativo ou serviço de envio de mensagens em massa e de criação de contas ou grupos de maneiras não autorizadas ou automatizadas. Esse é precisamente o tipo de comportamento que o aprendizado de máquina é otimizado para detectar. O WhatsApp iniciou, também, ações judiciais contra empresas que ofertavam estes tipos de serviços na plataforma em afronta aos termos de serviço e à legislação brasileira. A Justiça brasileira tem dado irrestrito respaldo à posição do WhatsApp, proibindo que essas empresas continuem divulgando, oferecendo e executando tais serviços ilícitos.

O WhatsApp está comprometido a intensificar os esforços no enfrentamento a esses serviços e contamos com o apoio das instituições brasileiras e da sociedade civil. Inclusive, foi o próprio WhatsApp quem propôs ao TSE que vedasse disparos e mensagens em massa nas eleições de 2020, o que foi expressamente determinado pelo tribunal. A proibição consta da resolução sobre propaganda eleitoral e está em vigor para as próximas eleições. O WhatsApp é favorável que a legislação nacional proíba, ou regulamente, de maneira estrita envios de mensagens em massa nas plataformas de mensageria privada. Esse é um ponto que o WhatsApp apoia na PL das fake news em debate no Congresso.

Primeiro, é importante ressaltar que não concordamos com a afirmação “Na cobertura das eleições de 2018 houve um consenso na imprensa que o WhatsApp foi a principal plataforma/veículo de distribuição na disseminação de fake news, até por conta do caráter "fechado" (no sentido de que não posso acessar um perfil ou uma conta da qual eu não tenho o número)” uma vez que não há provas.

Segundo, é preciso ter em mente que 99% do uso do WhatsApp é positivo e mesmo crucial para nós. Compreendemos, no entanto, as preocupações envolvendo desinformação e os riscos colocados ao processo democrático e às eleições; o WhatsApp leva isso muito a sério. Para enfrentar o 1% de mau uso, o WhatsApp tem tomado várias medidas:

 Mudanças no produto

O WhatsApp está comprometido em fazer sua parte no enfrentamento de mensagens virais. Em abril deste ano, limitamos o encaminhamento de mensagens “frequentemente encaminhadas”, de cinco para apenas uma conversa por vez. Desde então, houve uma redução de 70% no número de mensagens frequentemente encaminhadas em todo o serviço. Vale ressaltar que a maioria das mensagens trocadas no WhatsApp - 9 em 10 mensagens - são enviadas de apenas uma pessoa para outra.

Outra medida, adotada em outubro de 2019, são os controles que permitem que os usuários exijam consentimento antes de serem adicionados aos grupos. A maioria dos grupos do WhatsApp continua pequena (em média, menos de dez pessoas), e muitos usuários nem fazem parte de um grupo.

Também incentivamos todos os usuários a verificarem a veracidade das mensagens que recebem antes de compartilhá-las e a se envolverem diretamente com fontes oficiais e confiáveis para obterem informações importantes. Na semana passada, o WhatsApp anunciou que, junto ao Google, está testando um novo recurso que permite facilmente verificar na internet o conteúdo das mensagens "frequentemente encaminhadas".

Combate aos comportamentos abusivos

Nossos produtos não foram projetados para enviar mensagens em massa ou automatizadas, que violam nossos termos de serviço. Por meio de nossos avançados sistemas de aprendizado de máquina somos capazes de detectar essas práticas. Constantemente, banimos contas por comportamentos abusivos: todo mês, mais de 2 milhões de contas são banidas globalmente. Estamos comprometidos em reforçar a natureza privada do serviço e manter os usuários protegidos contra abusos.

Continuaremos a banir contas usadas para enviar mensagens em massa ou automatizadas e avaliaremos mais profundamente as nossas opções legais contra empresas que oferecem esses serviços, como fizemos no passado aqui no Brasil contra as empresas SallApp e Yacows. Estas duas operavam serviços pagos de disparos massivos e automatizados, violando os termos de serviço do WhatsApp.

Informação de confiança

O WhatsApp acredita que a forma de combater a desinformação é com informação de confiança. Muito provavelmente, a pandemia de COVID-19 será uma pauta importante nos futuros debates no período das eleições e, desde que a Organização Mundial da Saúde (OMS) declarou a emergência global de saúde pública, o WhatsApp tem trabalhado para conectar as pessoas às informações precisas e úteis sobre o Corona vírus e, assim, ajudar a combater a desinformação. Foram lançados 77 chatbots de informação em parceria com a OMS e com autoridades de saúde em 45 países, incluindo o Ministério da Saúde do Brasil e a Secretaria de Saúde do Estado de São Paulo, para ajudar a levar informações confiáveis à população.

Um chatbot lançado em conjunto com a Rede Internacional de Verificação de Fatos (IFCN) ajuda a conectar pessoas a verificadores de fatos independentes em mais de 70 países, incluindo o Brasil, e, também, ao maior banco de dados de informações falsas desmascaradas relacionadas ao novo coronavírus. Além disso, WhatsApp doou US$ 1 milhão à IFCN para expandir o número de organizações de checagem de fatos que trabalham com a plataforma e permitir, assim, que as pessoas possam enviar possíveis notícias falsas, golpes e boatos para uma dessas instituições. Outras informações estão disponíveis em whatsapp.com/coronavirus. Semana passada, a IFCN lançou a versão em português do chatbot para WhatsApp. O chatbot da IFCN é gratuito. Para interagir com ele, basta salvar o número +1 (727) 291 2606 na agenda de contatos do telefone e enviar a palavra “oi” ou “olá” para iniciar a conversa em português. Outra opção é recorrer diretamente ao link: https://poy.nu/ifcnchatbotPT.

O WhatsApp também tem feito parcerias com checadores de fatos. Apoiou o Projeto Comprova, um consórcio de 24 das maiores redações do Brasil, comprometido com a verificação, em tempo real, de boatos. Mais recentemente, o WhatsApp lançou com o Aos Fatos o canal de WhatsApp da Fátima, um chatbot que checa os fatos e tem contribuído em transmitir informações sobre a pandemia.

Youtube

“A prioridade do YouTube tem sido cumprir com nossa responsabilidade e enfrentar os desafios para manter nossa plataforma aberta e democrática, mas também segura. Este trabalho se concentra em quatro pilares, que chamamos de “4 Rs de responsabilidade”: remover conteúdo que viola nossas políticas de comunidade, recomendar conteúdo de fontes confiáveis, reduzir a disseminação de conteúdo no limite de nossas políticas e recompensar criadores confiáveis.

Mais detalhes sobre como fazemos:

REMOÇÃO:

Apenas no primeiro trimestre de 2020, o YouTube removeu da plataforma 6,1 milhões de vídeos. Mais de 90% deles foram denunciados por meio dos nossos sistemas automáticos. 49,9% não teve nenhuma visualização antes da remoção e 27,4% teve no máximo 10 visualizações

Só no Brasil, no mesmo período, foram removidos da plataforma mais de 480 mil vídeos por violação das nossas políticas.

RECOMENDAÇÃO: para dar mais visibilidade a informações de fontes confiáveis no YouTube, lançamos mão a uma série de recursos, incluindo:

Prateleiras de notícias de última hora e principais notícias; painéis de informações, que são caixas de texto que fornecem aos usuários contexto na pesquisa e na página de exibição de vídeos; e painéis de checagem de fatos;

Globalmente, o consumo de conteúdo de vídeos no limite das nossas políticas, provenientes de nossas recomendações, é

inferior a 1% de todo o consumo de conteúdo recomendado.

REDUÇÃO: atuamos na disseminação de conteúdo borderline (ou seja, nos limites da nossa política), reduzindo sua recomendação:

Em 2019, lançamos mais de 30 alterações diferentes para reduzir as recomendações de conteúdo borderline.

RECOMPENSA: valorizamos conteúdo que atenda ao nosso padrão ainda mais alto de monetização:

Em 2018, elevamos os padrões para que os criadores possam ganhar dinheiro no YouTube e todos os canais no Programa de Parcerias da plataforma (YPP) são revisados por um ser humano para garantir que atendem os critérios de aprovação.

Principais critérios:

-Seguir todas as políticas de monetização do YouTube.

-Ter mais de 4 mil horas de exibição públicas válidas nos últimos 12 meses.

-Ter mais de mil inscritos.

Os canais do YPP passam por revisão periódica, podendo ser removidos caso violem nossas diretrizes para publicidade.

Acreditamos que todos têm o direito de expressar sua voz e isso faz parte da nossa missão. Sabemos que a grande maioria da comunidade do YouTube dedica sua produção a conteúdos como educação, entretenimento, música, notícias, entre outros. 94% dos nossos criadores nunca violou nenhuma de nossas políticas. Além disso, uma análise feita em nossos sistemas de recomendação apontou que direcionamos os usuários para vídeos

populares e não para mais conteúdo de nicho ou controverso. Essa descoberta foi também confirmada por uma pesquisa do Pew Research Center.

Também não vimos correlações de desinformação prejudicial com maior engajamento do usuário. Dito isso, não significa que o YouTube não esteja atento à questão. Temos trabalhado para melhorar as recomendações nos últimos anos e vimos um progresso real.

Hoje, quando alguém está assistindo um vídeo que quase chega a violar nossas políticas, os sistemas de recomendação tendem a mostrar vídeos de fontes confiáveis no painel “próximo”.

Sobre o Bernardo Kuster, não comentamos casos específicos. Todos os canais no YouTube precisam cumprir nossas diretrizes de comunidade e, para monetizar, devem respeitar

as políticas do Programa de Parcerias do YouTube, que incluem nossas diretrizes para publicidade. Periodicamente, revisamos e removemos canais que não estão em conformidade com nossas políticas. É possível apelar da decisão ou reaplicar ao programa em 30 dias”

Twitter:

“O Twitter está comprometido em proteger a conversa pública e desenvolve um trabalho contínuo nesta frente, que inclui iniciativas como: combate a spam e automações mal intencionadas, que costumam ser vetores para disseminação de desinformação; desenvolvimento de novas formas de dar acesso a informações confiáveis para as pessoas que utilizam o serviço, incluindo páginas especiais que reúnem conteúdos sobre temas relevantes dentro do Twitter e notificações na área de busca com links para páginas com dados e fatos de credibilidade; apoio a projetos de terceiros de checagem

de fatos, com promoção e aumento da visibilidade dos Tweets e treinamentos sobre uso da plataforma - como temos, por exemplo, com o Comprova; suporte a projetos de educação midiática, como as cartilhas que fizemos com Unesco e OEA; e revisão de nossas regras e políticas.

Todas as nossas iniciativas para garantir uma conversa saudável são ainda mais importantes e concentram mais esforços em momentos de grande debate na plataforma, como é o caso das eleições. Dentre elas está a proibição de veiculação de propaganda eleitoral paga; a adesão ao programa de enfrentamento à desinformação do TSE; o estabelecimento de canais diretos com os partidos políticos e a sociedade civil para que possam nos trazer à atenção qualquer eventual tema; além do reforço nas equipes e recursos internos.

Para a identificação de conteúdos que possam manipular o debate público, atuamos em duas frentes complementares: a identificação proativa, via tecnologia, de contas com comportamentos suspeitos; e a análise de denúncias feitas pelas pessoas diretamente no Twitter. Em ambos os casos, quando há comportamento suspeito as contas passam pelo que chamamos de desafio (digitação de um código CAPTCHA ou confirmação de um e-mail, por exemplo) para checar se existe uma pessoa por trás daqueles perfis. Se comprovamos que há violação à nossa política contra spam e manipulação da plataforma, tomamos as medidas cabíveis. Além disso, pelo fato de sermos uma plataforma pública e aberta, nossa comunidade global de usuários tem a possibilidade de ver, apontar e corrigir inverdades em tempo real, contribuindo para o esclarecimento de informações imprecisas ou inverídicas.

Vale dizer que, nesta frente, nosso trabalho não resume somente a analisar se uma conta é ou não um "robô", mas sim consiste em uma avaliação holística do comportamento da conta quando há suspeita de envolvimento em tentativas de manipular o debate na plataforma.”

Facebook

“No Facebook, acreditamos que se limitássemos o discurso político, deixaríamos as pessoas menos informadas sobre o que os representantes eleitos estão dizendo e diminuiríamos a responsabilidade dos políticos por suas palavras. Em geral, publicações e anúncios de políticos não são submetidos à verificação de fatos e nossa abordagem se baseia na crença fundamental do Facebook na liberdade de expressão, no respeito ao processo democrático e de que o discurso político é de interesse público e o mais analisado que existe, especialmente em democracias maduras com uma imprensa livre.

Porém, quando um político compartilha um conteúdo específico que já foi marcado como falso por um dos verificadores de fatos parceiros do Facebook - como um link para um texto, foto ou vídeo criado por outra pessoa - reduzimos a distribuição desse conteúdo, exibimos um aviso e não permitimos que ele seja impulsionado. É importante reiterar que isso é diferente de uma afirmação ou declaração feita pelo próprio político. Se uma afirmação for feita diretamente por um político na Página dele, em um anúncio ou no site dele, ela será considerada um discurso direto. Por isso, ela não estará qualificada para nosso programa de verificação de fatos.

O Facebook busca proteger a integridade das eleições em suas plataformas e garantir que as pessoas possam expressar as suas vozes no processo democrático. Por isso, temos trabalhado em uma ampla estratégia para evitar o uso indevido de nossos serviços. Sabemos que à medida que continuamos aperfeiçoando nossas defesas, nossos adversários também desenvolvem novas táticas. Estamos comprometidos em fazer tudo o que pudermos para impedir o uso de nossas plataformas para interferência nas eleições.

Contamos com mais de 35 mil funcionários trabalhando para garantir a integridade de nossos serviços, em cerca de 40 equipes diferentes contribuindo com a tarefa de proteger eleições em todo o mundo.”

Notícias exclusivas e ilimitadas

O TEMPO reforça o compromisso com o jornalismo profissional e de qualidade.

Nossa redação produz diariamente informação responsável e que você pode confiar. Fique bem informado!