Seminário do CGI.br analisa soluções e boas práticas para as fake news e o discurso de ódio na Internet


12 ABR 2018



Especialistas refletiram sobre os desafios para o período eleitoral e as manifestações políticas na rede


Discurso de ódio e fake news, perfis alternativos, identidades múltiplas e robôs, detecção de fraude informativa e ação algorítmica, informação correta, vigilância e checagem de notícias foram alguns dos temas abordados no dia 4 de abril, durante o Seminário “Desafios da Internet no Debate Democrático e nas Eleições”, realizado pelo Comitê Gestor da Internet no Brasil (CGI.br). O encontro reuniu pesquisadores e especialistas do terceiro setor, da comunidade científica e tecnológica, do setor governamental e empresarial no debate sobre soluções e boas práticas relacionadas aos desafios apresentados, que vão além do período eleitoral e refletem sobre o processo de manifestação na rede de modo geral.

O combate a fake news não deve ser feito por meio da censura, enfatizou Sérgio Amadeu (CGI.br), durante a abertura do Seminário. "Tentaremos encontrar boas práticas. As fake news acontecem há muito tempo no período eleitoral e, quando você tem plataformas que são usadas para a proliferação de mentiras, o processo de desenvolvimento da opinião bem formada é colocado em risco". Demi Getschko (CGI.br) pontuou que o Seminário vem na hora certa, uma vez que é fundamental debater e esclarecer conceitos fluídos. “Acho que a própria verdade é um conceito fluido, depende da época e da situação. A pergunta ‘o que é verdade?’ nunca foi devidamente respondida”, completou.

Flávia Lefèvre (CGI.br) também listou fatores que não podem escapar do debate: o teor da reforma eleitoral e a coleta, tratamento e uso de dados pessoais por empresas, enfatizando a necessidade de uma lei geral de proteção de dados pessoais no Brasil. Também durante a abertura, Otávio Luiz Rodrigues Junior (CGI.br) reforçou que esse tipo de debate tem sido a marca do Comitê Gestor da Internet, que possui um modelo de participação plural, e Henrique Faulhaber (CGI.br) lembrou que a discussão busca garantir que "cheguemos às eleições, junto a regulamentos e leis, com racionalidade".

Fake news e discurso de ódio

A liberdade de expressão é inegociável, introduziu Marcelo Bechara (ABERT) no painel "Definições fundamentais sobre discurso de ódio e fake news", moderado por Sérgio Amadeu. Para Bechara, estamos vivendo na era da 'Algoritmocracia', na qual "sistemas de algoritmos fazem com que forças se manifestem e que, inclusive, produzam resultados políticos e sociais, lembrando ainda que as pessoas estão dispostas a acreditar em qualquer notícia que favoreça seus argumentos".

Wilson Gomes (UFBA) apresentou uma análise sobre o acirramento digital e guerras on-line envolvendo grupos identitários e partidários, além da crise de credibilidade do jornalismo. "O jornalismo não consegue ser a cura neste momento, pois é parte do problema. Do ponto de vista do indivíduo que faz a distribuição das fake news, a perda da credibilidade significa a perda da capacidade de distinguir o que é jornalismo do que é ‘jornalismo fake news’", opinou.

Leonardo Sakamoto (Repórter Brasil) propôs atacar as causas das fake news e dos discursos de ódio, e não suas consequências. “Precisamos reduzir a polarização politica, garantir espaços para o desenvolvimento de empatia, debater o aumento da pluralidade nos algoritmos que controlam as timelines, alfabetizar os mais jovens para a mídia e para o diálogo, e regular as plataformas. É um processo demorado, mas que pode levar a uma saída", afirmou.

Identidades múltiplas e robôs

O Brasil precisa do anonimato? A questão foi levantada durante o painel "Perfis alternativos, identidades múltiplas e robôs", moderado por Percival Henriques (CGI.br). "Por motivos de segurança, o anonimato é necessário. Ativistas e minorias necessitam deste", destacou Mariana Valente (Internet Lab), em concordância com Carlos Affonso (ITS), que complementou que "sem anonimato não há denúncia e sem denuncia não há investigação".

Valente lembrou que a utilização de robôs com objetivo político acontece no Brasil desde 2010, com a criação de "exército de fakes" para manipular a opinião política. Já Affonso citou o PegaBot, projeto do ITS Rio e do Instituto Equidade & Tecnologia, em que o usuário pode verificar a atividade de uma conta de rede social para saber a probabilidade de ser um robô.

Ação algorítmica

A programação do Seminário também incluiu a realização do painel "Detecção de fraude informativa e ação algorítmica", moderado por Tanara Lauschner (CGI.br). Guilherme Pinheiro (IDP) trouxe uma análise jurídica da ação algorítmica, promovendo a reflexão sobre o direito de liberdade editorial dos buscadores e redes sociais. "Intermediários da informação estão cada vez mais poderosos. Estudo da Universidade de Oxford aponta que 66% dos brasileiros se informam por meio das redes sociais, há um oligopólio dessas empresas".

Cristina De Luca (Blog Porta 23) pontuou que a regulação do algoritmo é necessária, porém é crucial debater que tipo de regulação deve ser realizada. "Precisamos proteger aquilo que a rede faz de melhor e banir da rede tudo que ela faz de nocivo". Ela também chamou atenção para a necessidade de mobilizar profissionais da comunicação. "Precisamos conhecer quem está por trás das fake news, tentar chegar às agências de marketing político e big data, fazer com que elas possam assumir o compromisso de não veicular notícias falsas e não jogar um jogo político sujo", alertou.

Durante o painel, Jonas Valente (Intervozes) enfatizou que a propaganda paga pode ter efeito mais danoso do que as fake news nas eleições, por conta da dificuldade de rastreamento. Ele comentou ainda que a ação algorítmica inclui a coleta e o processamento de dados, mas termina em aplicações inteligentes. "Machine learning é uma tecnologia central e muito perigosa, pois faz com que a máquina se desprenda da sua programação original e aprenda de forma própria. As discriminações e injustiças cometidas por algoritmos como, por exemplo, não garantir reconhecimento facial para pessoas negras, precisam ser alertadas e discutidas”.

Fact-checking

Com a moderação de Luiz Fernando Castro (CGI.br), o painel "Informação correta, vigilância e fact-checking" teve a participação de Cristina Tardáguila (Agência Lupa), que listou recomendações para combater fake news. "Desconfie da notícia, verifique quando foi publicada, se o autor tem interesse, se a URL é estranha, se a informação está em outros lugares. Na dúvida, não compartilhe”, alertou, complementando que a solução para notícia falsa é a educação.

Renata Mielli (Barão de Itararé e FNDC) enfatizou a importância de fazer com que as pessoas reflitam sobre o processo de construção das informações que circulam. "Notícias imprecisas sempre existiram, não nasceram com a Internet. Estamos num momento em que é necessário revalorizar a notícia como mercadoria". Mielli também apontou que a checagem de fatos presta serviço importante, porém a definição de parâmetros para essa checagem também pode ser editorializada a partir de construções políticas, sociais e culturais.

Carlos Eduardo Cauduro Padin (TRE/SP) afirmou que a Justiça Eleitoral deve garantir equilíbrio e lisura das eleições e, por si, é inerte e não age por conta própria. "É preciso que alguém reclame, candidatos, partidos. É necessário levar fatos à Justiça Eleitoral, que irá apurá-los". Também durante o painel, Padin comentou que “o tempo da notícia não é o mesmo da Justiça e fake news é um assunto que carece de regulamentação”.

O que as plataformas estão fazendo

Não deve ser papel das empresas privadas arbitrar o que é informação falsa ou verdadeira. A declaração de Mônica Rosina (Facebook Brasil) aconteceu no painel "Hands on: O que as plataformas estão fazendo", que contou com moderação de Thiago Tavares (CGI.br). Rosina informou que estudos internos mostram que a disseminação de conteúdo falso na plataforma possui, na maior parte, motivação econômica. "Estamos trabalhando para evitar que elementos mal-intencionados façam uso da plataforma, aumentar transparência de anúncios e oferecer mais ferramentas para que as pessoas tenham maior contexto sobre as informações que estão lendo", afirmou.

Fernando Gallo (Twitter) concordou que empresas não devem ser árbitros da verdade e que a transparência é fundamental para o trabalho sobre uso indevido de robôs, desinformações e spam. "Para as eleições, vamos incluir selo de verificação nos perfis de todos os candidatos, manter linhas de comunicação abertas com a Justiça Eleitoral, melhorar a tecnologia antispam. Também investimos no desenvolvimento de habilidades digitais por meio da realização de workshops", revelou.

"É preciso trabalhar em conjunto para encontrar soluções", considerou Marco Túlio Pires (Google), enfatizando que a disseminação de conteúdo enganoso é prejudicial para a democracia. Pires apresentou iniciativas em que o Google está inserido como o First Draft, coalizão para combater disseminação de notícias enganosas e também centro de pesquisa para entender o fenômeno. A aplicação de selo de checagem de fatos, indicando empresas que utilizam fact-checking em determinados conteúdos e diretrizes para avaliar a qualidade da busca também foram comentadas durante o painel.

Na sequência do Seminário “Desafios da Internet no Debate Democrático e nas Eleições”, nos dias 05 e 06 de abril, um workshop realizado para convidados buscou aprofundar os debates iniciados no evento dessa quarta-feira (4). Com os resultados, o CGI.br estuda a possibilidade de elaborar um Guia de Boas Práticas.

Para rever todas as discussões realizadas no Seminário, acesse: https://www.youtube.com/playlist?list=PLQq8-9yVHyOYWZhsd-35FwoyG_HiBVII7.