Identificar conteúdos de baixa qualidade nas redes antes que eles se tornem virais. Em síntese, essa é a missão do Radar Aos Fatos. Com pouco mais de um mês de operação, o Radar Aos Fatos deu a largada com um relatório sobre as 100 mil mortes por Covid-19 no Brasil (e suas desinformações), passou pelos seis meses de apoio infundado à cloroquina (e o papel de Jair Bolsonaro nisso tudo) e chegou ao discurso negacionista sobre as queimadas no Pantanal. Diante da disputa por cargos de prefeito e vereador nos 5570 municípios brasileiros, os temas eleitorais são a próxima fronteira do Radar.
Na entrevista a seguir para Afonte, Carol Cavaleiro, diretora de inovação no Aos Fatos, Bruno Fávero e Bárbara Libório, editores de projetos especiais no Aos Fatos, contam como o projeto aplica técnicas de inteligência artificial para rastrear desinformação – e como essa ferramenta pode apoiar o trabalho de fact-checking.
Como surgiu a ideia do Radar?
Identificamos que, para tomarem decisões bem informadas e definir boas estratégias, líderes em suas respectivas áreas precisam estar continuamente conscientes de como as campanhas de desinformação influenciam o debate público, especialmente se esses debates estiverem acontecendo simultaneamente em várias plataformas. O Radar Aos Fatos vem preencher essa lacuna — localiza, qualifica e dá contexto sobre os principais vetores desinformativos nas redes, enquanto gera inteligência estratégica
Como vocês acreditam que o Radar pode ser apropriado no combate à desinformação?
O propósito do Radar é identificar a desinformação antes de ela se tornar viral e entender como as ondas desinformativas se espalham em cada rede. Por isso, nossa metodologia é desenvolvida para encontrar conteúdos de baixa qualidade que, possivelmente, podem conter informação errada ou enganosa. Isso nos possibilita entender como os agentes que se apropriam dessas narrativas se articulam, o que é parte fundamental na luta contra desinformação.
Já é possível dimensionar o impacto dessa ferramenta no trabalho do Aos Fatos? De que forma?
Desde abril, no início da pandemia de coronavírus no Brasil, a equipe do Radar Aos Fatos vem produzindo conteúdo sobre redes de desinformação — não só sobre a crise de saúde pública, mas também sobre a crise política. Aumentamos nossa equipe para prever a captura e análise de dados e produção de conteúdo que estavam previstos para o segundo semestre, após o lançamento da ferramenta. Desde então, os dados capturados e analisados pelo Radar geram insights não só para os relatórios e reportagens da equipe editorial do projeto, mas para toda a equipe editorial do Aos Fatos. A intersecção entre as duas equipes é muito frequente — de um lado, temos uma equipe de repórteres e editores que está checando narrativas falsas todos os dias e aponta caminhos e temas de interesse, e de outro há a geração de dados da ferramenta do Radar que, analisada pela nossa equipe de jornalistas de dados, mostra novas narrativas a serem perseguidas e combatidas.
O que foi mais complicado no desenvolvimento do Radar: o processamento da linguagem, os algoritmos, as APIs das plataformas, a navegação para o usuário final?
O mais difícil foi e ainda é desenvolver e aprimorar o algoritmo de deteção de conteúdo de baixa qualidade, por dois motivos: essa metodologia foi desenvolvida por nós e perpassa limitações impostas pelas APIs de coleta de cada plataforma. O desenvolvimento da metodologia demandou várias rodadas de testes, ajustes e revisão das métricas aplicadas. Hoje, ela ainda conta com uma revisão e ajustes diários. Tivemos que ser criativos para driblar as limitações das APIs, pensar em regras que levassem em conta o dado disponível e o custo de processamento para o cálculo de cada uma dessas regras.
O funcionamento do Radar pode ser comprometido por mudanças de políticas das plataformas ou por, na avaliação delas, infringir as regras de uso? A Rosie, da Operação Serenata de Amor, foi bloqueada no Twitter por um tempo, por exemplo.
Sim. Uma fragilidade do nosso projeto é que o dado não é público, ele pertence a cada rede e mudanças e atualizações das APIs podem comprometer nossa coleta.
Vocês consideram um risco uma classificação equivocada do Radar ser apropriada por desinformadores? Quais os mecanismos para prevenção de erros nesse sentido?
Parte do trabalho de calibragem diária do algoritmo é para prevenir e aprimorar a classificação do Radar, entender o que entrou e o que ficou de fora. Com o tempo, a tendência é que equívocos sejam menos frequentes. Vale lembrar que essas regras foram desenhadas para encontrar conteúdo de baixa qualidade com chances de ser desinformativo, não pretendem substituir a checagem. Uma nota 5 significa que, embora a publicação possua termos comumente usados em conteúdo de baixa qualidade, a publicação pontua bem nas métricas indicando baixa probabilidade do conteúdo ser desinformativo.
A eventual aprovação do “PL das Fake News” pode afetar o Radar de alguma forma?
É cedo para fazer qualquer previsão específica sobre o Radar porque o texto do PL ainda está sendo discutido e há sinais de que a Câmara dos Deputados pode mudar substancialmente a redação aprovada no Senado. Um ponto que esteve presente nas discussões e que nos preocupa são as tentativas de determinar na lei o que é desinformação e como o trabalho de checagem deve ser conduzido. Uma versão inicial do texto que circulou no Senado, por exemplo, impunha uma série de obrigações ao checadores —como a realização de auditorias periódicas e a disponibilização de dados sobre as checagens— que, na nossa opinião, violam a liberdade de imprensa. Publicamos um editorial em maio sobre esse assunto.
Qual foi a importância da Google News Initiative para o desenvolvimento do projeto?
Graças ao GNI fomos capazes de mudar todos os nosso planos e cronogramas para a cobertura da Covid-19. Em março, o desenvolvimento do Radar engatinhava, já que a versão beta da ferramenta seria lançada em agosto, visando as eleições, e reports semanais sobre as movimentações de redes. Com a chegada da pandemia, foi preciso mobilizar esforços na coleta de dados e reforçar nosso braço editorial. Contratamos jornalistas de dados, paramos o desenvolvimento da infraestrutura, começamos a coletar dados sem que a face pública do Radar estivesse disponível. Desde então, publicamos 15 matérias com foco em análise de redes e desinformação, conseguimos lançar o Radar Beta e entregamos o primeiro report.