Open-access Entre resistência e concessão de transparência: as plataformas digitais colaboraram com as eleições?

Between resistance and transparency: do digital platforms cooperate with electoral processes?

RESUMO

Introdução:  O artigo analisa o problema da opacidade na moderação de contas e conteúdos pelas empresas proprietárias de plataformas digitais e suas relações com as autoridades da justiça eleitoral brasileira em três ciclos eleitorais, abarcando o período de 2018 a 2023.

Materiais e métodos:  Com base na análise de documentos da Meta, Google, YouTube, TikTok, Twitter, Spotify, Kwai e LinkedIn e de entrevistas com atores-chave (funcionários de algumas dessas plataformas e servidores da Justiça Eleitoral), a pesquisa propõe uma classificação das respostas das empresas às críticas e pressões das autoridades eleitorais a partir da diferenciação entre estratégias de resistência e de concessão.

Resultado:  Estratégias de resistência e concessão se complementam na governança contenciosa das plataformas digitais. A análise revela que as empresas oferecem transparência de forma progressiva e controlada, mas sem permitir um real escrutínio público. Os resultados destacam os limites e riscos da relação assimétrica entre empresas e autoridades eleitorais, reforçando a necessidade de regulação das plataformas digitais.

Discussão:  A pesquisa evidencia a importância de aprofundar o diagnóstico da assimetria entre plataformas digitais e autoridades, além de contribuir para propostas de regulamentação que promovam responsabilidade e transparência na moderação de contas e conteúdo.

Palavras-chave
integridade eleitoral; plataformas digitais; moderação de conteúdo; Tribunal Superior Eleitoral; eleições

ABSTRACT

Introduction:  This article examines the lack of transparency in how digital platform companies moderate content and user accounts, focusing on their dealings with Brazil's electoral authorities over three election cycles, from 2018 to 2023.

Materials and methods:  The research draws on an analysis of documents from Meta, Google, YouTube, TikTok, Twitter, Spotify, Kwai, and LinkedIn, alongside interviews with key actors (employees from these platforms and officials from Brazil's Electoral Justice) to categorize the companies' responses to criticisms and pressures from electoral authorities, which fluctuate between strategies of resistance and compliance.

Results:  Strategies of resistance and compliance often operate hand-in-hand in the contentious governance of digital platforms. Our findings show that companies offer transparency in a gradual and selective manner, without allowing genuine public scrutiny. This underscores the limits and risks of the unequal relationship between companies and electoral authorities, emphasizing the urgent need for more effective regulation of digital platforms.

Discussion:  Our study emphasizes the importance of further exploring the asymmetry between digital platforms and government authorities, while proposing ideas for developing regulatory frameworks that enhance accountability and transparency in how platforms moderate content and manage user accounts.

Keywords
electoral integrity; digital platforms; content moderation; Superior Electoral Court; elections

I. Introdução1

“O senhor acha que houve uma postura colaborativa das plataformas digitais?” perguntou uma repórter do jornal Valor na coletiva de imprensa chamada pelo Tribunal Superior Eleitoral (TSE), no dia 30 de outubro de 2022, após a proclamação do resultado das eleições brasileiras. A jornalista ainda complementou: “muitas [plataformas] criticaram o prazo que seria curto para cumprimento destas decisões [judiciais de retirada de conteúdo]” (TSE, 2022c, 9:46:10-9:46:23). O ministro Alexandre de Moraes, então presidente do TSE, respondeu que a relação com as empresas “foi ótima”, e ironizou: “acho que o prazo de 1 hora é até longo demais, porque em 15 minutos tudo estava retirado, ou seja, houve total colaboração” (TSE, 2022c, 9:46:23-9:46:33).

O papel das empresas proprietárias das plataformas digitais (daqui em diante, apenas “plataformas digitais” ou “plataformas”) durante processos eleitorais tem sido estudado desde os anos 1990, com foco analítico nos usos que os atores (eleitores, candidatos, campanhas e partidos políticos) fazem das ferramentas digitais. A partir de meados da década de 2010, no entanto, o impacto político das próprias plataformas tornou-se objeto de estudo e de debate público, no contexto mais amplo da discussão global sobre a necessidade de regular o funcionamento das gigantes da tecnologia. Evidência dessa transformação é a ampla literatura que tem se dedicado a analisar esse impacto, a partir de diferentes focos empíricos: as relações das empresas com as equipes de comunicação das campanhas eleitorais (por exemplo, Kreiss & McGregor, 2017) e com autoridades eleitorais (por exemplo, Haenschen & Wolf, 2019), as políticas de moderação de conteúdo e combate à difusão de desinformação (por exemplo, Silva & Gertrudes, 2023; Barbosa et al., 2021; Marsden et al., 2020), os possíveis sesgos introduzidos por algoritmos de recomendação de conteúdo (por exemplo, Gorwa et al., 2020), a exploração de dados pessoais e comportamentais (por exemplo, Bennett & Oduro-Marfo, 2019; Gonzales, 2021), as práticas de impulsionamento de conteúdo (por exemplo, Bragatto et al., 2023; Dommett & Power, 2024), entre outros.

Este artigo contribui para o debate a partir do estudo do papel das plataformas digitais nas eleições brasileiras de 2018, 2020 e 2022. Especificamente, analisamos as estratégias adotadas pelas plataformas a partir das demandas e exigências das autoridades eleitorais. Além disso, com base no caso das eleições presidenciais de 2022, examinamos a relação entre as plataformas digitais e as autoridades eleitorais no que se refere ao tema da moderação de conteúdo. Com base na análise de conteúdo de documentos e entrevistas, argumentamos que as ações das plataformas digitais se desdobram em dois eixos estratégicos: resistência e concessão. A resistência é operacionalizada por meio de argumentos que enfatizam, por um lado, as dificuldades técnicas para atender às demandas das autoridades eleitorais e, pelo outro, as possíveis consequências negativas, não intencionadas, de maiores níveis de transparência. Em contraste, também mapeamos a implementação de ações eleitorais voltadas à concessão de doses de transparência, progressivamente aplicadas a cada ciclo eleitoral. Embora aparentemente contraditórios, ambos eixos se complementam na governança das plataformas digitais, entendida como um processo político contencioso (Gorwa, 2021) de interação com as autoridades eleitorais e com a sociedade em geral.

O artigo está organizado em cinco seções, além desta introdução e das considerações finais. Na próxima parte, revisamos a literatura que analisa o papel das plataformas digitais em eleições, com foco no debate sobre transparência de seus serviços e negócios. Em seguida, apresentamos a metodologia utilizada na pesquisa. As duas seções que seguem apresentam a análise empírica: primeiro, a análise comparada das ações do Google e da Meta nos três ciclos eleitorais (2018, 2020 e 2022); em seguida, a análise focada no tema da moderação de conteúdos e contas nas eleições de 2022. As considerações finais retomam os principais achados e argumentos.

II. A promessa das plataformas digitais e as críticas

As eleições são eventos fundamentais para o desenvolvimento e consolidação da imagem pública das plataformas digitais. Durante os ciclos eleitorais, estas têm apresentado seus serviços como instrumentos de interesse público e, ao mesmo tempo, como ferramentas neutras quanto aos interesses específicos dos atores envolvidos (Zuboff, 2019). Especificamente, apresentam seus serviços como uma promessa2 de aprimoramento da participação eleitoral e da representação democrática. Há inúmeros exemplos dessa retórica, especialmente no contexto estadunidense. Nas eleições de 2008, o Google argumentou: “estamos tentando ajudar a aumentar a participação garantindo que você tenha acesso fácil à informação sobre a votação” (Staton, 2008). Em 2012, o Twitter declarou que a eleição daquele ano nos EUA era “a eleição do Twitter” (Sharp, 2012), e que “pela primeira vez é possível mensurar conversas que apenas até o ciclo eleitoral passado se limitavam aos cafés, mesas de jantar e bebedouros”. Por sua vez, o Facebook, tanto nas eleições de 2010 como em 2012, disse que, através do aplicativo “Estou Votando” (I'm Voting), a empresa estava “tomando o pulso do eleitorado estadunidense e amplificando as vozes dos usuários de sites sociais” (Lockhart apud Meta, 2012). Mas a empresa também estava influenciando o comportamento do eleitor, como ficou explicitado na publicação dos resultados do experimento realizado em 2010, apresentados na Revista Nature (Bond et al., 2012, p. 297).

A publicização de casos exitosos do uso das ferramentas digitais reforça a retórica da promessa. Em 2017, a reeleição do Senador Toomey foi celebrada na página do Facebook Business: “[e]sta campanha usou uma estratégia sob medida para o Facebook, com conteúdo para público específico para mudar significativamente a intenção do eleitor” (Facebook, 2017, tradução própria). No mesmo ano, o Google afirmou que a campanha presidencial exitosa de 2015 de Mauricio Macri, na Argentina, usou seus produtos para “fazer uma segmentação avançada por interesses, palavras-chave e temas para chegar com mensagem precisa a cada uma das províncias”, e concluiu: “os resultados estão à vista: ¾ dos voluntários se registraram através do online, sem necessidade de ter que se aproximar do espaço físico, o que demonstra o alcance e a capacidade digital da campanha” (Google, 2017a). O então coordenador da campanha digital de Macri reproduziu o discurso: “todas estas ferramentas permitiram redobrar nossos esforços e chegar ao eleitorado com mensagens segmentadas para cada audiência em cada etapa” (Google, 2017b, 0:54-1:02).

Contudo, a retórica da promessa passou a ser fortemente questionada, tanto por acadêmicos como por atores da sociedade civil e autoridades públicas, na medida em que essas mesmas ferramentas e o modelo de negócio das plataformas foram associados a práticas e consequências negativas. Apesar das críticas ganharem maior visibilidade apenas a partir do plebiscito sobre a saída do Reino Unido da União Europeia e das eleições nos EUA de 2016, os impactos potencialmente negativos das plataformas digitais já estavam sendo assinalados anteriormente pela literatura em outros contextos no Sul Global: no Brasil, em 2010 (Silva & Santos, 2013); em Myanmar, em 2012 (ONU, 2018, p. 342); no Quênia (Nyabola, 2018) e na índia (Roy, 2017), em 2013.

De acordo com essa literatura emergente, não se trata apenas de analisar a maneira como os atores se apropriam das ferramentas digitais, mas de questionar a própria atuação das empresas e seus interesses políticos e econômicos. No cerne desse debate está o questionamento sobre a transparência e controle dos sistemas algorítmicos que monetizam, ordenam e recomendam conteúdos. Como argumenta Cruz, “Sob a retórica de neutralidade, esse novo arranjo técnico [as plataformas] torna invisíveis aos usuários as escolhas dos proprietários das plataformas, suas cadeias de comando e seus critérios para definir o que será visibilizado” (Cruz, 2020, p. 123). O chamado à maior transparência das plataformas digitais tem sido feito por organismos internacionais, governos, academia e organizações da sociedade civil a partir da definição da informação como bem público e da compreensão de que não há necessariamente uma contradição entre maior transparência e o respeito ao direito à privacidade e aos interesses econômicos das empresas (por exemplo, UNESCO, 2023).

Contudo, a transparência, no sentido restrito da exposição a dados e normas sobre o funcionamento das plataformas, por si só não é suficiente para fazer frente à significativa assimetria de poder que caracteriza as relações das plataformas digitais com as autoridades públicas e sociedade civil. Como argumentam Ananny & Crawford (2018, p. 975), a demanda por maior transparência, se limitada a tornar uma informação visível para mais atores, não permite compreender a operação dos sistemas algorítmicos em sua interação com os comportamentos humanos e as consequências e riscos dessas interações. Por sua vez, esta compreensão é fundamental, como advertem Gorwa et al. (2020), para questionar decisões sobre conteúdo tomadas a partir da moderação automatizada.

Trata-se, portanto, de situar as demandas por maior transparência no marco amplo dos debates sobre a governança privada das plataformas digitais, definida, como propõe Gorwa (2021, p. 4), como um processo inerentemente político de contestação sobre regras que emanam das próprias empresas e de leis ou marcos regulatórios estatais. Frente à ausência de acordos internacionais que instituam normas gerais com efeito compulsório, essa contestação tem sido feita de forma fragmentada em nível nacional (Lima & Valente, 2020), com destaque, em contextos eleitorais, para a relevância das interações entre empresas e autoridades eleitorais.

No entanto, os estudos de caso sobre essas interações têm demonstrado a grande dificuldade para aprovar marcos regulatórios e mesmo para garantir que as determinações das autoridades eleitorais sejam cumpridas. Nos Estados Unidos, Haenschen & Wolf (2019) mostram como, até 2016, as empresas se opuseram às medidas de maior transparência relativas à propaganda eleitoral, exigidas pela Comissão Federal Eleitoral (Federal Electoral Commission, FEC), com o argumento (entre outros) de que estas implicariam em custos operacionais. No caso da pioneira legislação alemã sobre moderação de conteúdo, aprovada em 2017, legisladores relataram a frustração com a resistência das plataformas em oferecer informações básicas e até mesmo em acatar as leis nacionais; ao mesmo tempo, as empresas implementaram sucessivas medidas voluntárias que buscavam evitar a regulação (Gorwa, 2021, p. 6). No caso das eleições do Reino Unido de 2019, Dommett & Power (2024) argumentam que os dados de gastos com propaganda digital não cumpriram com nenhum dos quatro critérios de transparência fundamentais: completude, consistência, precisão e acessibilidade.

Como este artigo mostra, no Brasil as empresas também atuaram, por um lado, resistindo a medidas regulatórias e, por outro, concedendo doses, insuficientes, de transparência sobre sua atuação. No entanto, o desafio da regulação eleitoral da governança das plataformas é especialmente complexo no contexto do Sul Global, onde as assimetrias de poder entre plataformas digitais, autoridades públicas nacionais e sociedade civil são ainda mais relevantes do que em casos como os da Alemanha, Reino Unido e Estados Unidos (Estrada, 2023; Silva & Gertrudes, 2023).

III. Método e dados

A análise do caso brasileiro permite compreender a evolução das ações das plataformas digitais em contextos eleitorais, a partir de um país do Sul Global. Apesar dos desafios serem similares no mundo todo, o ritmo de adoção de medidas voluntárias e regulatórias é desigual. Por exemplo, o relatório de anúncios eleitorais do Google, lançado em 2018 nos Estados Unidos, foi introduzido no Brasil apenas em 2022 (por exemplo, Google, 2017c; Duque, 2022). Além disso, o Brasil é um país importante para as empresas, pela grande quantidade de usuários dos seus serviços e pela potencialidade de difusão das medidas adotadas para outros países em desenvolvimento. A análise adota uma perspectiva longitudinal, tratando dos ciclos eleitorais de 2018, 2020 e 2022, mas presta atenção especial ao debate sobre moderação de contas e conteúdos em 2022.

As duas principais fontes de dados desta pesquisa são: documentos produzidos pelas plataformas digitais, pelas autoridades eleitorais e por organizações da sociedade civil, e entrevistas semiestruturadas com atores-chave. Primeiro, realizamos uma busca sistemática de documentos nas páginas oficiais de oito empresas (ver Anexo 1), a partir de palavras-chave relacionadas ao tema das eleições e da integridade eleitoral: “Brasil”; “eleição”; “eleitores”; “voto”; “votos”; “propaganda política”; “marketing político”; “político”; “anúncio político”; “campanha política”; “campanha presidencial”, “campanha eleitoral”; “operação de influência”; “desinformação”; “comportamento inautêntico coordenado”; “trolls”; “discurso de ódio”; “comportamento abusivo”; “integridade eleitoral”; “contas falsas”. Nas páginas que não ofereceram mecanismo de pesquisa por palavra-chave (Twitter, TikTok e Kwai) a busca foi feita manualmente, através da rolagem das páginas. Por haver encontrado documentos exclusivamente em inglês ou espanhol sobre as eleições no Brasil (por exemplo, Meta, 2018a, 2018b; YouTube, 2020a; Spotify, 2021), a pesquisa executou a busca também nesses idiomas. O resultado é uma base de 156 documentos, publicados entre 2008 e 2023 (ver Anexo 1). Desse montante, 50 são da Meta (32%); 56 do Google (36%); 33 do Twitter (21%); 8 do TikTok (5%); e 3 (2%) do Telegram, Spotify e LinkedIn, cada um. Por fim, obtivemos um documento da empresa Kwai através de entrevista, totalizando uma base de 157 documentos.

Além disso, foram analisados 15 documentos de cooperação assinados pelas plataformas digitais com o TSE (ver Anexo 2). Em 2018, Google e Meta formalizaram uma cooperação com o TSE visando o enfrentamento da desinformação. Em 2020, além de Google e Meta, Twitter e TikTok também formalizaram a cooperação com as autoridades. Para a eleição de 2022, um conjunto ainda mais amplo de empresas assinou acordos similares: Google, Meta, Twitter, TikTok, Telegram, Kwai, LinkedIn e Spotify. Outros documentos relevantes foram: as atas do Conselho Consultivo sobre Internet e Eleições, que vigorou durante a eleição de 2018, e 14 vídeos dos cursos de capacitação oferecidos pelas plataformas digitais a servidores da justiça eleitoral, sendo 13 deles de 2020, disponibilizados temporariamente no canal do YouTube da Justiça Eleitoral3; e 1 de 2018, disponibilizado no canal do TRE-MT (2019). No entanto, cabe explicar que em 2023 os vídeos de 2020 já não estavam acessíveis. Em resposta a um questionamento feito pelos autores com base na Lei de Acesso à Informação, o TSE explicou que isto se deve “a uma reivindicação de direitos autorais feita pela plataforma YouTube” (TSE, 2023a).

A segunda fonte de dados para a pesquisa foram as entrevistas semiestruturadas com funcionários das plataformas digitais e da Justiça Eleitoral envolvidos com os debates sobre a atuação das empresas em processos eleitorais ao longo do período estudado. Foram realizadas 12 entrevistas, entre dezembro de 2022 e agosto de 2023, sendo 6 com funcionários da Justiça Eleitoral e 6 com integrantes de equipes da Meta, Twitter, Kwai e TikTok. A pesquisa comprometeu-se com o anonimato das pessoas entrevistadas e, nos casos de inclusão de citações diretas, estas foram previamente autorizadas pelas(os) entrevistadas(os). As informações obtidas dos documentos permitiram compreender o histórico de ações anunciadas e adotadas pelas plataformas e possibilitaram incluir perguntas específicas nos roteiros das entrevistas. Por sua vez, as entrevistas permitiram coletar relatos importantes sobre a interação do TSE com as plataformas durante as eleições de 2022. Também foram relevantes para complementar a coleta de dados sobre a atuação das plataformas.

A totalidade do material obtido a partir de documentos escritos, vídeos e entrevistas, formou o corpus que foi submetido a análise qualitativa de conteúdo, realizada conjuntamente pelos autores. Primeiramente, a análise foi feita a partir das duas categorias que refletem as estratégias das empresas em contextos eleitorais: resistência e concessão. Esta diferenciação foi dedutiva, baseada na revisão da literatura apresentada anteriormente. A subcategorização temática realizada em seguida foi indutiva. A análise do corpus permitiu especificar a estratégia de resistência, a partir de duas subcategorias que refletem os principais argumentos apresentados pelas empresas, os quais denominamos de “dilema da transparência” e “impossibilidade técnica”. Por sua vez, as informações do corpus sobre a estratégia de concessão foram separadas em ações de prestação de contas e ações de prestação de serviços. A subcategoria de prestação de contas abarca ações direcionadas a proporcionar acesso a dados sobre contas e conteúdos nas plataformas e aquelas voltadas para a exposição dos critérios de moderação de conteúdos. Por fim, a subcategoria de prestação de serviços abrange ações direcionadas a publicizar informações oficiais relacionadas ao processo eleitoral.

IV. As respostas das plataformas digitais: entre a resistência e a concessão

A partir das eleições de 2018, a justiça eleitoral brasileira, através do TSE, cumpriu papel progressivamente ativo na pressão por maior responsabilização e transparência das plataformas digitais (Alves et al., 2023, p. 22-23; Bentes, 2023, p. 33-44). Com base na legislação eleitoral e, ao mesmo tempo, frente à ausência de uma lei que regulasse de forma mais específica a responsabilização das plataformas digitais4, a corte publicou uma série de decisões infralegais e assinou memorandos de entendimento e acordos de cooperação. Também promoveu cursos de capacitação e seminários, e criou instâncias de diálogo com acadêmicos e organizações da sociedade civil. A análise de documentos e das entrevistas revela que, assim como em outros países, as reações das plataformas podem ser analisadas a partir de dois eixos estratégicos: o da concessão e o da resistência. Longe de serem contraditórias, essas estratégias foram implementadas simultaneamente e de maneira complementar.

IV.1. A estratégia de concessão: os casos da Meta e do Google

A análise nesta seção é circunscrita aos casos da Meta e do Google, porque estas foram as duas únicas empresas que formalizaram acordos com o TSE no período completo (2018-2022). As ações eleitorais apresentadas são medidas específicas de colaboração, relacionadas à integridade dos processos eleitorais, e representam concessões frente às pressões e críticas das autoridades públicas e da sociedade. Essas ações são de dois tipos: aquelas que prestam contas, dando acesso a informações sobre contas e conteúdos, e aquelas que prestam serviços, oferecendo informações oficiais sobre o processo eleitoral.

IV.1.1. O caso da Meta

A Figura 1 ilustra as ações implementadas pela Meta para ampliar o acesso público a dados de contas e de conteúdos políticos e eleitorais patrocinados. às vésperas da eleição de 2018, em audiência pública na Câmara dos Deputados, a criação da Biblioteca de Anúncios foi apresentada como forma de “aumentar o nível de transparência de anúncios na plataforma” (Meta apud Câmara dos Deputados, 2018, 0:18:21-0:18:47), contribuindo para o “controle das pessoas sobre os anúncios” (Meta apud Câmara dos Deputados, 2018 0:18:48-0:19:29). Em 2022 a Biblioteca passou a armazenar, além dos anúncios eleitorais, publicidade de conteúdo associado a temas considerados sociais, econômicos, de segurança e educação. O Rótulo de Propaganda Eleitoral, implementado em 2018, passou a ser obrigatório em 2020 e foi mantido em 2022, apresentando informações sobre o anunciante e a campanha que promove determinada publicação.

Figura 1
Ações eleitorais da Meta para acesso a dados de contas e conteúdos (2018-2022)

A Figura 2 apresenta ações direcionadas à promoção de informações oficiais sobre as eleições. O Rótulo Eleitoral, novidade em 2022, difere do Rótulo de Propaganda Eleitoral porque não apresenta informações sobre o anunciante ou titular da conta que publicou determinado anúncio, mas foi aplicado a todo e qualquer conteúdo relacionado às eleições, pago ou não, e remetia para uma página do TSE (2021). Essa foi, portanto, uma iniciativa de promoção de informações oficiais, assim como o “Megafone”, uma constante ao longo das três eleições. Outra iniciativa, implementada durante o segundo turno de 2018, foi a criação de contas oficiais do TSE no WhatsApp (TSE, 2018, p. 5), que passou a transmitir conteúdo das agências de verificação de fatos em 2023 (TSE, 2023b).

Figura 2
Ações eleitorais da Meta para promoção de informações oficiais (2018-2022)

Outras ações são relativas à moderação de conteúdo desinformativo e remoção de contas inautênticas (ver Figura 3). O Rótulo sobre Conteúdo Verificado como Falso foi implementado em 2020 e mantido em 2022. Um filtro cinza é aplicado sobre o conteúdo denunciado e verificado como falso pelas agências parceiras da Meta. Seu alcance é reduzido e remete à página de uma das agências parceiras de verificação de fatos (Couto, 2022, 11:09-14:05).

Figura 3
Ações eleitorais da Meta relacionadas à moderação de conteúdo e contas (2018-2022)

Pese ao seu potencial impacto nas eleições, a Meta nunca apresentou um balanço dessas iniciativas. Somente após os eventos de 8 de janeiro de 2023 é que a empresa divulgou dados sobre remoção de conteúdo durante as eleições de 2022. De acordo com comunicado da empresa, entre 16 de agosto de 2022 e 8 de janeiro de 2023 foram removidos, por incitação à violência e pedido de golpe militar, cerca de 1 milhão de conteúdos no Facebook e 960 mil no Instagram. Por promoção de discurso de ódio foram removidos do Facebook 570 mil e do Instagram 520 mil conteúdos; e, por bullying, 380 mil conteúdos no Facebook e 630 mil no Instagram (Meta, 2023b). Como discutimos mais detalhadamente na seção 5 deste artigo, pese à relevância dessas informações não é possível compreender, por exemplo, quanto tempo demorou para esses conteúdos serem removidos, o alcance e engajamento que obtiveram neste ínterim, nem o quanto esse alcance decorreu da recomendação do conteúdo para novas audiências.

IV.1.2. Os casos do Google e do YouTube

A Figura 4 apresenta as ações do Google e do YouTube relacionadas ao acesso a dados sobre contas e conteúdos. A primeira medida implementada foi, em seu serviço de busca, a inserção do selo de verificação de fatos produzido por agências parceiras. Em 2020 o Google informou ao TSE que orientou partidos e candidaturas a inserir em seus anúncios a expressão “Propaganda Eleitoral” (TSE, 2020c, 35:25-35:42). Ainda em 2020, o YouTube implementou no Brasil o recurso de painéis informativos. Este serve tanto à prestação de contas como à prestação de serviços porque, por um lado, apresenta informações sobre os canais, indicando quais são vinculados à comunicação de órgãos públicos ou financiados com recursos públicos (Figura 5) e, pelo outro, informações sobre o contexto do conteúdo, quando este é considerado limítrofe (Figura 6). O conteúdo limítrofe é definido como aqueles “vídeos que cheguem muito perto de desrespeitar as Diretrizes da Comunidade” (Goodrow, 2021), como “vídeos contendo teorias conspiratórias ('o homem nunca pousou na Lua') ou conteúdo que dissemina desinformação ('suco de laranja cura câncer')” (Goodrow, 2021).

Quanto ao Relatório de Transparência de Anúncios do Google, esta já era uma iniciativa implementada em outros países, mas somente foi adotada no Brasil em 2022. Em reação às denúncias de influência estrangeira sobre as eleições estadunidenses e difusão da desinformação em 2016, o Google anunciou que implementaria o Relatório de Transparência sobre anúncios eleitorais, “que compartilhará dados sobre quem está comprando anúncios relacionado às eleições nas nossas plataformas e quanto dinheiro está sendo gasto” (Google, 2017c, p. 1). Em abril de 2018, o YouTube publicou seu primeiro relatório trimestral sobre remoção de conteúdos que violassem as regras das plataformas (YouTube, 2018) e em agosto o Relatório de Transparência de Anúncios foi lançado, mas circunscrito, apenas, aos EUA (Smith, 2018).

Figura 4
Ações eleitorais do Google para acesso a dados de contas e conteúdos (2018-2022)

A Figura 5 apresenta as ações de promoção de informações oficiais sobre as eleições, do Google. Essas ações consistem em destacar, nos resultados de busca, informações sobre data, hora e local de votação, bem como informações sobre as candidaturas majoritárias e proporcionais que estão disputando a eleição. No YouTube, a ação consiste em reproduzir painel informativo, junto a vídeos e canais, mas direcionando a sites da Justiça Eleitoral.

Figura 5
Ações eleitorais do Google para promoção de informações oficiais sobre as eleições (2018-2022)

A Figura 6, por fim, apresenta as ações de exposição dos critérios de moderação de contas e conteúdos. Em 2020, o YouTube informou que removeria conteúdos falsos sobre as eleições (YouTube, 2020b; YouTube, 2019), mas em 2022 a empresa especificou, informando que seriam conteúdos que alegassem fraudes já desmentidas sobre as urnas na eleição de 2018 (Rizzo, 2022) e 2014 (Simões & Haynes, 2022). Proclamado o resultado oficial de 2022, a empresa passou a remover alegações de fraude sobre as urnas do mesmo ano (YouTube Brasil, 2022). Segundo o balanço apresentado pela empresa, esta removeu “mais de 10.000 vídeos” (YouTube, 2022) e derrubou “mais de 2.500 canais” (YouTube, 2022, s/p) durante as eleições. No entanto, esses dados são ainda mais insuficientes do que aqueles apresentados pela Meta, não só pela flagrante ausência de informações específicas, mas também porque o balanço limita-se a repetir o que havia sido afirmado anteriormente com relação às eleições estadunidenses de 2020: “removemos mais de 10.000 vídeos” (Miller, 2022).

Figura 6
Ações eleitorais do Google relacionadas à moderação de conteúdo e contas (2018-2022)

As ações de prestação de contas e prestação de serviços das plataformas digitais são, de forma geral, medidas importantes para a integridade dos processos eleitorais. O problema é, como explicou um(a) servidor(a) da Justiça Eleitoral entrevistado(a), “saber o quanto elas são fiéis, nos processos de moderação, à aplicação da política que está prevista” (E-B). De fato, por mais que as ações de prestação de contas possibilitem acesso a informações relevantes, não se traduzem em transparência sobre o processo de tomada de decisão, humano e algorítmico, dentro da plataforma, acerca da recomendação de contas e conteúdos à novas audiências, nem sobre as decisões de remoção, sanção, ou revisão sobre as conta de conteúdo. Da mesma maneira, as ações de prestação de serviços são informadas sem meios de serem verificadas. Na próxima seção complementamos a análise, a partir dos principais argumentos apresentados por representantes das plataformas digitais para resistir à concessão de maior transparência.

IV.2. A estratégia de resistência

De acordo com a análise das atas de reuniões, dos documentos publicados pelas plataformas, de declarações públicas e das entrevistas, entre 2018 e 2022 as empresas negaram-se a atender ou questionaram as demandas da Justiça Eleitoral principalmente a partir de dois argumentos: o de que maiores níveis de transparência poderiam beneficiar a disseminação de conteúdo criminoso - um suposto “dilema da transparência” - e a impossibilidade técnica de implementar determinadas ações.

Durante o Fórum Nacional de Propaganda Eleitoral nas Mídias Digitais, organizado pela Justiça Eleitoral em março de 2018, o representante do Twitter expôs o dilema da transparência da seguinte maneira: “devido à natureza do assunto, nem sempre podemos compartilhar publicamente essas ações [de combate à desinformação] e sempre haverá ferramentas e métodos sobre os quais não podemos falar, pois isso ajudaria os responsáveis por perfis maliciosos a burlarem estes nossos esforços” (Twitter apud TRE-MT, 2019, 4:23:31-4:23:46). Em setembro de 2020, ao participar de atividade voltada à capacitação dos servidores da Justiça Eleitoral, o representante do Google apresentou o dilema a partir da imagem reproduzida na Figura 7.

Figura 7
Imagem produzida pelo Google para questionar impacto de maior transparência algorítmica (2020)

Segundo o representante do Google:

se a gente compartilha muitos detalhes sobre os algoritmos e os processos (…), a gente pode acabar facilitando a vida desses agentes que disseminam a desinformação, já que eles vão poder usar esse conhecimento para manipular os sistemas (Google apud TSE, 2020a, 24:00-24:49, destaque próprio).

Argumento similar também foi utilizado por representantes da Meta. Em audiência pública realizada na Câmara dos Deputados, em 2020, o representante da empresa afirmou: “é preciso evitar ‘ensinar’, digamos assim, atores maliciosos, por exemplo, informando detalhadamente as metodologias de detecção” (Meta apud Câmara dos Deputados, 2021, 14:17-14:42).

Como se vê, o argumento de um suposto dilema da transparência não nega retoricamente a relevância da mesma, mas coloca um limite, que seriam as condições de segurança do usuário e da integridade. Sob o pretexto de evitar oferecer informações delicadas a atores maliciosos, não se oferece transparência sobre a atuação das plataformas digitais na moderação de contas e conteúdos. Sem essa transparência, autoridades e sociedade civil ficam impossibilitadas de verificar se as plataformas são fiéis aos compromissos assumidos publicamente e de avaliar o impacto dos sistemas algorítmicos (Gorwa et al., 2020).

Por sua vez, o argumento da impossibilidade técnica de atender demandas refere-se tanto aos atributos técnicos dos serviços como à operacionalidade dos mesmos. Um exemplo emblemático do primeiro foi, durante as eleições de 2018, a reação do WhatsApp sobre o direito de resposta às mensagens contendo alegações falsas sobre as urnas eletrônicas (TSE, 2018, p. 4). Os representantes da plataforma explicaram que os sistemas algorítmicos atuariam sobre o comportamento da conta - o envio sucessivo de grande volume de mensagens - mas não sobre o conteúdo, em razão da criptografia adotada pelo serviço, porque “agir com relação a isso [direito de resposta] dentro do produto do WhatsApp agiria contra as políticas de privacidade da ferramenta, bem como de limitações técnicas e da questão inerente à criptografia das mensagens” (TSE, 2018, p. 4).

Com relação à operacionalidade técnica, um bom exemplo é a resposta dada pelas plataformas às exigências de celeridade na remoção de conteúdo determinadas pela Resolução 23.714 do TSE de 2022. Segundo reportagem na época, “[r]epresentantes das redes sociais (…) apontam dificuldades para cumprir a determinação. Algumas consideram até ser ‘inviável’ fazer alterações imediatas nas equipes, a fim de possibilitar a remoção de URLs” (Alcântara & Portela, 2022).

Estas foram as principais justificativas das plataformas para resistir ações de maior transparência frente à justiça eleitoral que encontramos em nosso corpus, mas esta não é uma análise exaustiva. Como veremos em mais detalhes na próxima seção, o argumento do perigo de censura prévia somou-se ao de operacionalidade técnica para fazer o contraponto à demanda do TSE de celeridade na remoção de conteúdos em 2022.

V. A moderação de contas e conteúdos nas eleições de 2022

Apesar das plataformas digitais terem anunciado várias iniciativas relacionadas à moderação de contas e conteúdos, no processo eleitoral de 2022 este tema continuou sendo fonte de tensões. Em boa medida, isto se explica pela ampla difusão de mensagens desinformativas, em particular de alegações falsas sobre as urnas eletrônicas e o sistema eleitoral (por exemplo, Alves et al., 2023). O caso do Telegram foi talvez o mais dramático, porque, após sucessivas tentativas de contato pelo TSE, em março de 2022 o acesso ao serviço no país foi bloqueado pelo Supremo Tribunal Federal. A decisão foi revertida apenas quando a empresa estabeleceu representação no país e removeu canais solicitados pela autoridade eleitoral (Losekann & Rodrigues, 2022).

A demora das plataformas digitais para atuar sobre conteúdos desinformativos foi, ainda antes da realização do primeiro turno, objeto de cobrança da autoridade eleitoral: “[u]ma das principais mensagens [do TSE na reunião com representantes das plataformas] foi para que as big techs sejam rápidas para derrubar conteúdos extremos ao processo eleitoral” (Soprana & Galf, 2022), porque “em alguns casos [a remoção] só ocorre depois que eles [os conteúdos] já atingiram centenas de milhares de visualizações” (Mello & Galf, 2022).

Independentemente da celeridade na remoção de conteúdo, há ainda a situação problemática de que as plataformas digitais não têm oferecido dados suficientes para avaliar o processo de tomada de decisões sobre a moderação e tampouco como seus sistemas algorítmicos tratam os conteúdos removidos, como, por exemplo, as métricas de alcance e engajamento prévios às remoções. A forma como as informações são apresentadas pelas empresas é insuficiente e tem o objetivo de projetar uma noção de eficiência dos sistemas algorítmicos das plataformas. Para demonstrar isto, convém analisar os relatórios de remoções em nível mundial e as remoções circunscritas às eleições de 2022 no Brasil, publicados apenas por Google, YouTube, Meta e TikTok.

Segundo o relatório mundial da Meta sobre a moderação de conteúdos que incitavam violência, relativo ao último trimestre de 2022, 87,3% foram removidos automaticamente, enquanto 12,7% o foram após denúncias dos usuários, sem oferecer dados sobre alcance ou engajamento destes conteúdos antes da remoção (Meta, 2023c). Por sua vez, o TikTok indicou que 84,7% das remoções mundiais, no mesmo período, foram realizadas antes de qualquer visualização, havendo, portanto, cerca de 15,3% de conteúdos que receberam alguma visualização (TikTok, 2023). Por fim, o YouTube informou que, no último trimestre de 2022, 31,9% das remoções mundiais obtiveram entre 1 e 10 visualizações e 27,7% dessas remoções obtiveram mais de 10 visualizações (Google, 2023). Estes números são importantes, mas ainda incompletos, porque não permitem avaliar a atuação das empresas sobre os conteúdos removidos a partir da denúncia de terceiros, o tempo que os conteúdos estiveram disponíveis e seu alcance decorrente da recomendação algorítmica, seja para audiências que já seguiam a conta autora do conteúdo ou novas audiências que não seguiam.

Os balanços apresentados pelas plataformas digitais após a intentona golpista do 8 de janeiro de 2023, no Brasil, também ilustram os limites das ações de transparência, em um contexto em que havia grande pressão por parte das autoridades e do público por dados sobre os impactos das plataformas. O TikTok comunicou que, entre 16 de agosto e 31 de dezembro de 2022, removeu 66.020 vídeos, sendo que “79% foram removidos sem que tivessem uma única visualização” (Gallo, 2023). A Meta informou que, entre 16 de agosto de 2022 e 8 de janeiro de 2023, foram removidos 1,96 milhões de conteúdos do Facebook e Instagram por violação da política de violência e incitação no Brasil, dentre os quais aqueles que pediam e incitavam golpe militar. Também foram removidos 1,09 milhões de conteúdos de discurso de ódio e 1,01 milhões de conteúdos de bullying (Meta, 2023b). O YouTube, por sua vez, havia afirmado que, durante as eleições, “[m]ais de 84% dos vídeos removidos foram retirados antes de atingirem 100 visualizações” (YouTube, 2022).

A insuficiência dessas informações foi, inclusive, reconhecida pelo Comitê de Supervisão da Meta5, que investigou uma denúncia de falha na moderação e, a partir disso, questionou a empresa sobre as métricas adotadas para avaliar o sucesso ou não dos seus esforços eleitorais. De acordo com o Comitê, “a Meta declarou que não adota nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral, apenas fornece dados sobre remoções de conteúdo, visualizações e cliques em rótulos eleitorais” (Comitê de Supervisão, 2023).

Frente à falta de informações que permitissem avaliar efetivamente a atuação das plataformas digitais sobre moderação de conteúdos, ganharam relevância iniciativas da sociedade civil e das autoridades eleitorais que ofereceram algum meio para realizar essa avaliação, independentemente dos dados disponibilizados pelas empresas. Sem sermos exaustivos6, citamos como exemplos, por parte da sociedade civil, os testes da organização Global Witness e as pesquisas do grupo NetLab, da Universidade Federal do Rio de Janeiro (UFRJ); e, por parte das autoridades eleitorais, o Sistema de Alerta da Justiça Eleitoral. As três iniciativas buscaram pressionar as plataformas, ao demonstrar a contradição entre seus discursos e as ações de moderação de conteúdo.

Entre agosto e outubro de 2022, a Global Witness produziu anúncios que foram aceitos tanto pela Meta como pelo YouTube, contendo informações falsas sobre as urnas e o processo eleitoral (Global Witness, 2022a, 2022b, 2022c). As pesquisas realizadas pelo NetLab denunciaram a ineficiência das medidas das próprias plataformas (ver seção IV.1), como a ausência do rótulo de propaganda eleitoral e a falta de dados precisos sobre os valores investidos em impulsionamento de conteúdo, tanto na Biblioteca de Anúncios da Meta (NetLab UFRJ, 2023) como no Relatório de Transparência do Google (NetLab UFRJ, 2022a). Ainda, ambas autorizaram o pagamento de anúncios no dia da eleição do primeiro turno, sendo que suas próprias regras indicam respeito ao “período de silêncio eleitoral” (NetLab UFRJ, 2022c, p. 11).

Quanto ao Sistema de Alertas, entrevistas (E-A, E-B) realizadas com integrantes da Justiça Eleitoral indicaram que foi uma ferramenta importante na interação com as plataformas digitais. O Sistema de Alertas consistiu em um canal da Justiça Eleitoral para receber “notícias de atos ou fatos entendidos como irregulares” (TSE, 2024) sobre as eleições, como, por exemplo, desinformação sobre o processo eleitoral, incitação a violência contra servidores(as) da Justiça Eleitoral, desinformação contra candidaturas, discurso de ódio em material eleitoral e mensagens com conteúdo eleitoral não solicitadas no WhatsApp. O material recebido era analisado por uma equipe do TSE e encaminhado para as respectivas plataformas (TSE, 2024). Na medida em que as plataformas digitais atuavam ou não sobre os conteúdos encaminhados, o Sistema de Alertas servia, segundo as entrevistas (E-A, E-B), para subsidiar o TSE de informações acerca da diligência das empresas e, nas reuniões entre equipes da Justiça Eleitoral e com as plataformas, negociar e/ou pressionar por determinadas ações.

Por outro lado, as entrevistas com funcionários(as) das plataformas digitais evidenciam a ausência de uma compreensão comum dos objetivos do instrumento e do seu escopo. Uma pessoa entrevistada pontuou que o volume de conteúdos que o TSE encaminhava pelo Sistema de Alertas era expressivamente menor que os conteúdos moderados por conta própria pela empresa (E-C). Além disso, sua percepção era que o TSE não conseguia fazer a triagem e “só encaminhava para a gente” (E-C). Para o(a) funcionário(a) de outra plataforma, no entanto, “houve, sim, uma remoção de conteúdo que não é desprezível por conta das denúncias” (E-D). Contudo, “é um canal que ele realmente precisa ter premissas muito bem estabelecidas e acho que isso foi algo que a gente ajustou no decorrer da parceria” (E-D). Na percepção da pessoa entrevistada, esse canal

foi criado para receber denúncias de conteúdos potencialmente violadores dos termos de uso e das políticas [da plataforma]. Então, não é um canal dedicado a denúncia de conteúdo, de propaganda eleitoral irregular, ilegal, né, é um canal realmente pra denúncia de conteúdos potencialmente violadores (E-D)

A entrevista relata ainda a ocorrência de divergências entre TSE e plataformas sobre o escopo do canal:

quando nós víamos que algumas denúncias estavam fugindo do escopo do canal ou que elas estavam vindo com algum tipo de falta de informação, que impedia nós de processarmos as denúncias, a gente tinha esse contato bem próximo com o time da Assessoria [de Enfrentamento à Desinformação] para passar o feedback. Assim como eles também passavam o feedback sobre as expectativas deles, no sentido de ‘ó, nós estamos denunciando aqui, mas está havendo uma demora’ ou ‘estamos denunciando aqui conteúdos que não estão sendo removidos’. E era uma oportunidade da gente realmente entender o que estava acontecendo, corrigir eventualmente alguma falha do nosso lado ou justificar, falar, ‘olha, aqui vocês estão denunciando conteúdo que, na avaliação da empresa, não está dentro do escopo do canal ou não viola nenhuma política’ (E-D)

Em comparação com ciclos eleitorais passados, funcionário(a) de outra plataforma comentou que, na eleição de 2022, “o que mudou um pouco foi a capacidade do TSE de monitorar conteúdo do lado deles, o que também implicou, talvez, maior [demanda] para as plataformas por esse canal extrajudicial” (E-E). Segundo o relato,

eles encaminhavam por e-mail, a gente imediatamente tinha uma equipe aqui que recebia, (…) imediatamente a gente encaminhava isso para as equipes de moderação de conteúdo, que estavam avisadas que precisavam deliberar isso com prioridade e, tanto quanto possível, com celeridade. E a gente respondia para o tribunal, sobre cada uma das URLs, qual havia sido a deliberação, se pela moderação do conteúdo ou pela manutenção do conteúdo (E-E)

Após o primeiro turno das eleições, houve intensificação dos ataques entre as candidaturas presidenciais e dos ataques ao TSE. De acordo com o presidente do Tribunal, Alexandre de Moraes, teria ocorrido um aumento, com relação aos dias do fim do primeiro turno, de 1.671% das denúncias de desinformação (TSE, 2022a, 34:46-35:29). Com base nesse cenário, o plenário do TSE aprovou, no dia 20 de outubro - portanto, 10 dias antes da realização do segundo turno das eleições - a Resolução n° 23.714, permitindo que a presidência do TSE determinasse a extensão de decisões do plenário do tribunal, relacionadas à desinformação, para outros casos “com idêntico conteúdo” (TSE, 2022b), bastando indicar o endereço eletrônico desses conteúdos.

As entrevistas com funcionários(as) das plataformas digitais confirmam o sentimento de urgência: “o ministro Alexandre chamou as plataformas para de um lado agradecer o trabalho até então, mas dizer ‘olha, faltam dez dias [e] a situação piorou’” (E-E). Na reunião foi informado que o TSE publicaria uma nova resolução. “A gente pediu para ver a resolução antes que ela fosse publicada, não deixaram” (E-E). Outro(a) entrevistado(a) explica: “nós fomos informados que haveria uma nova resolução que a equipe estava preparando, para endereçar os desafios do segundo turno, mas o teor da resolução em si a gente descobriu quando ela foi publicada” (E-D). Ainda assim, o TSE consultou sobre a viabilidade técnica de instituir o mecanismo de extensão da decisão judicial para conteúdos idênticos: “essa discussão foi feita nessa conversa, na verdade as plataformas ponderaram o seguinte: ‘olha, aquilo que for absolutamente idêntico é tecnicamente possível e relativamente fácil identificar’” (E-E), mas o problema seriam os riscos de censura de conteúdos legítimos. “A gente alertou para o fato que poderia haver um risco de censura” (E-E)7.

Sobre os impactos operacionais no trabalho humano nas empresas em função da nova Resolução, duas entrevistas relataram a necessidade de reorganização e as dificuldades para cumprir com prazos curtos devido à ausência de atores decisórios em território nacional:

duas horas para cumprir [a ordem do TSE], uma hora nos dias finais [da eleição] e as ordens chegando, por exemplo, de madrugada e, enfim, a gente num fuso em que o Brasil às vezes tava dormindo. Foi possível lidar com isso, nós tivemos que fazer alguns rearranjos internos para poder lidar com isso, sobretudo no período da madrugada que foi difícil (...) quem aperta o botão não é quem tá aqui no Brasil, a gente tem que negociar, explicar (…) quem aperta o botão está fora, está nos Estados Unidos (E-E)

Um(a) funcionário(a) de outra plataforma deu depoimento similar: “No Brasil, os times locais ficavam numa função mais de apoio, mas não era a gente, aqui no Brasil, que apertava o botão, ali, fazia a revisão, apertava o botão e removia o conteúdo” (E-D). Para essa pessoa, a operacionalização da remoção de conteúdos dentro do prazo de 1 hora é possível, mas foi muito curto o tempo para adequar as equipes.

Os relatórios das plataformas digitais e os depoimentos das entrevistas com servidores(as) da Justiça Eleitoral e funcionários das plataformas digitais evidenciam o caráter contencioso e assimétrico do acesso à informação sobre a efetiva moderação de contas e conteúdos nas plataformas digitais. A contenciosidade sobre a indefinição do objetivo e escopo do Sistema de Alertas, bem como nas negociações das autoridades com as empresas sobre as condições de implementação da Resolução n° 23.714, foi expressão da ausência de mecanismos públicos e sociais de transparência que possibilitem um efetivo monitoramento da moderação de contas e conteúdos das plataformas digitais (Alves et al., 2023, p. 28-29). A regulação pública, que institua esses mecanismos, é condição necessária para contrapor esse cenário de assimetria, que favorece o poder privado das plataformas digitais.

Em suma, considerando o histórico de ações (seção IV.1) e o contencioso acerca das medidas de moderação de conteúdo na eleição de 2022 (seção V), fica evidente a importância de se aprofundar o debate sobre os tipos de transparência necessários e sobre os limites das estratégias de concessão. Tão importante quanto a transparência sobre a tomada de decisão privada na moderação das plataformas digitais é, também, a transparência sobre a relação dessas empresas com as autoridades eleitorais e setores da sociedade civil. Além disso, as ações relacionadas à prestação de contas e prestação de serviços são importantes, mas estão sujeitas às decisões de concessão ou negação pelas empresas a partir da conjuntura política, como a reação à intentona golpista em 2023 ilustra.

VI. Considerações finais

O impacto das plataformas digitais em contextos eleitorais tem se tornado tema cada vez mais relevante e contencioso nas interações entre essas empresas e autoridades eleitorais, legisladores, partidos políticos e atores da sociedade civil. Apesar dessa crescente importância e dos esforços da literatura acadêmica, não há diagnósticos precisos das ações eleitorais das plataformas, tanto devido à opacidade de suas operações como pela ausência (ou ineficácia) de instrumentos regulatórios que permitam obter os dados necessários para esse balanço. Se bem trata-se de um debate global, as assimetrias de poder entre os atores envolvidos nesses debates significam que, em países do Sul Global, como o Brasil, esse é um desafio especialmente complexo.

Este artigo oferece uma contribuição significativa para preencher esse vácuo, ao mapear e analisar as ações eleitorais implementadas pelas empresas de plataformas digitais entre 2018 e 2022. Essas ações podem ser entendidas como uma valsa estratégica, caracterizada por um movimento pendular entre concessões e resistências. A partir dessa distinção, destacamos como as ações de colaboração da Meta e do Google se expandiram progressivamente entre 2018 e 2022, oferecendo doses de transparência. Ao mesmo tempo, ambas resistiram a oferecer informações dos processos de tomada de decisão (humana e algorítmica) sobre ações de recomendação e moderação de contas e conteúdos, impedindo seu escrutínio público. Como mostramos a partir da análise do processo eleitoral de 2022, pese à importância das iniciativas da Justiça Eleitoral, da sociedade civil e da academia, estas estão condicionadas à autoridade privada das plataformas digitais. Não apenas os dados apresentados pelas empresas são francamente insuficientes, mas o processo decisório da moderação de contas e conteúdos permanece cercado pelo sigilo.

Frente às dificuldades para regular a transparência e responsabilização das plataformas digitais, a integridade dos processos eleitorais tem dependido, em boa medida, da colaboração voluntária das empresas ou da capacidade de pressão da Justiça Eleitoral. Os resultados da pesquisa apresentada neste artigo apontam nitidamente para os limites desta relação assimétrica na governança das plataformas digitais em contextos eleitorais. Reforçam, também, a necessidade de uma agenda de pesquisa que aprofunde o diagnóstico aqui apresentado e contribua para a elaboração de propostas de marcos regulatórios que diminuam os riscos à integridade eleitoral.

  • 1
    Agradecemos o trabalho dos(as) editores(as), aos comentários e sugestões dos(as) pareceristas anônimos(as) da Revista de Sociologia e Política. Agradecemos também à Marjorie Corrêa Marona (UFMG) e à Paloma Rocillo (IRIS) pelo apoio com os contatos para realização das entrevistas.
  • 2
    A noção de promessa está presente nas análises de Zuboff (2019), Dean (2009) e Gerbaudo (2012). Para explicação mais aprofundada, ver Capítulo 1 de Gonzales (2021).
  • 3
    Os vídeos foram baixados do canal oficial do TSE no YouTube (https://www.youtube.com/@justicaeleitoral) em 9 de fevereiro de 2023. Intitulados de “treinamentos”, nesses vídeos funcionários das plataformas digitais apresentavam a servidores da Justiça Eleitoral suas regras de uso, as ações implementadas em contextos eleitorais e orientações sobre como identificar uma conta ou conteúdo específico.
  • 4
    Quando este artigo foi escrito, no início de 2024, estavam tramitando no Congresso Nacional vários projetos de lei com o objetivo de regular a atuação das plataformas digitais.
  • 5
    Criado em 2018, o Comitê atua como instância de apelação sobre decisões de moderação no Facebook e Instagram, produzindo recomendações de ações a serem tomadas pela Meta (Comitê de Supervisão, 2024).
  • 6
    Em 2022 houve uma mobilização importante de agências jornalísticas de verificação de fatos, acadêmicos e organizações da sociedade civil para lutar contra a desinformação e pressionar as plataformas por melhores práticas de moderação de conteúdo. No entanto, essa análise vai além dos objetivos deste artigo. Ver mais em Bentes (2023, p. 102-103).
  • 7
    No dia seguinte à publicação da Resolução, o então Procurador Geral da República entrou com uma ação de inconstitucionalidade junto ao Supremo Tribunal Federal, utilizando o argumento da censura prévia. Em 2023, a maioria da Corte decidiu pela validade da Resolução (STF, 2022).

Referências

Anexo 1 Documentos, lista de páginas oficiais das empresas e lista de entrevistas

Documentos

A planilha com a coleta dos documentos das plataformas digitais está disponível online em /https://resocie.org/wp-content/uploads/2024/09/Dados-pesquisa-Comunicados-Relatorios-PlataformasDigitais.pdf.

Páginas oficiais das empresas

Google (https://www.thinkwithgoogle.com; https://www.blog.google/; https://www.blog.youtube/; https://abc.xyz/investor/);

Meta (https://newsroom.fb.com/; https://investor.fb.com/home/default.aspx/)

Twitter (https://blog.twitter.com/; https://investor.twitterinc.com/home/default.aspx)

TikTok (https://newsroom.tiktok.com/pt-br/news/)

Telegram (https://t.me/durov; https://t.me/TelegramBR);

Spotify (https://investors.spotify.com/home/default.aspx; https://newsroom.spotify.com);

LinkedIn (https://blog.linkedin.com/)

Kwai (https://www.kwai.com/pt-BR/newsroom).

Lista de entrevistas

Em compromisso com o anonimato das pessoas entrevistadas, o Identificador da Entrevista corresponde à ordem cronológica de suas realizações e não corresponde à ordem das entrevistas citadas no corpo do artigo.

Identificador da entrevista Data (ano/mês) Setor 1 2022/12 Justiça Eleitoral 2 2022/12 Justiça Eleitoral 3 2022/12 Justiça Eleitoral 4 2022/12 Justiça Eleitoral 5 2022/12 Justiça Eleitoral 6 2023/01 Justiça Eleitoral 7 2023/01 Meta 8 2023/01 Meta 9 2023/01 Meta 10 2023/02 Twitter 11 2023/04 TikTok 12 2023/08 Kwai

Anexo 2 Lista de memorandos de entendimentos do TSE com as plataformas digitais

TSE (2022) Memorando de Entendimento-TSE no 1/2022. Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/assinatura-de-acordos-plataformas-digitais/memorando-tse-e-google>. Acesso em: 22 de jan. 2023

TSE (2022) Memorando de Entendimento-TSE no 2/2022 Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/memorando-tse-e-tiktok/rybena_pdf?file=https://www.tse.jus.br/imprensa/noticias-tse/arquivos/memorando-tse-e-tiktok/at_download/file>. Acesso em: 22 de jan. 2023.

TSE (2022) Memorando de Entendimento-TSE no 3/2022. Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/assinatura-de-acordos-plataformas-digitais/memorando-tse-e-facebook/>. Acesso em: 22 de jan. 2023.

TSE (2022) Memorando de Entendimento-TSE no 4/2022. Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/2022/Fevereiro/tse-e-whatsapp-celebram-acordo-para-combate-a-desinformacao-nas-eleicoes-2022>. Acesso em: 22 de jan. 2023.

TSE (2022) Memorando de Entendimento-TSE no 6/2022. Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/assinatura-de-acordos-plataformas-digitais/memorando-tse-e-kwai/rybena_pdf?file=https://www.tse.jus.br/imprensa/noticias-tse/arquivos/assinatura-de-acordos-plataformas-digitais/memorando-tse-e-kwai/at_>. Acesso em: 22 de jan. 2023.

TSE (2022) Memorando de Entendimento-TSE no 8/2022. Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/linkedin-se-junta-aos-parceiros-do-tse-contra-a-desinformacao/rybena_pdf?file=https://www.tse.jus.br/imprensa/noticias-tse/arquivos/linkedin-se-junta-aos-parceiros-do-tse-contra-a-desinformacao/at_down>. Acesso em: 22 de jan. 2023.

TSE (2022) Termo de Adesão ao Programa de Enfrentamento à Desinformação. Brasilia: Tribunal Superior Eleitoral. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/termo-de-adesao-do-telegram-ao-programa-de-enfrentamento-a-desinformacao-em-25-03-2022/rybena_pdf?file=https://www.tse.jus.br/imprensa/noticias-tse/arquivos/termo-de-adesao-do-telegram-ao-programa-de-e>. Acesso 22 jan. 2023

TSE (2022) TSE e Spotify formalizam parceria contra a desinformação. Brasília. Disponível em: <https://www.tse.jus.br/comunicacao/noticias/2022/Maio/tse-e-spotify-formalizam-parceria-contra-a-desinformacao>. Acesso em: 19 de jun 23.

TSE (2021) Memorando de Entendimento-TSE no 23/2021. Brasília. Disponível em: <https://www.tse.jus.br/imprensa/noticias-tse/arquivos/assinatura-de-acordos-plataformas-digitais/memorando-tse-e-twitter>. Acesso em: 22 de jan. 2023.

TSE (2020) Memorando de Entendimento-TSE n°40/2020. Brasília. Disponível em: <https://www.justicaeleitoral.jus.br/parcerias-digitais-eleicoes/assets/arquivos/memorando_google.pdf>. Acesso em: 19 de jun. 2023.

TSE (2020) Memorando de Entendimento-TSE n° 41/2020. Brasília. Disponível em: <https://www.justicaeleitoral.jus.br/parcerias-digitais-eleicoes/assets/arquivos/memorando_facebook.pdf>. Acesso em: 12 de jun 2023.

TSE (2020) Memorando de Entendimento-TSE n° 43/2020. Brasília. Disponível em: <https://www.justicaeleitoral.jus.br/parcerias-digitais-eleicoes/assets/arquivos/memorando_whatsapp.pdf>. Acesso em: 19 de jun. 2023.

TSE (2020) Memorando de Entendimento-TSE n°38/2020. Brasília. Disponível em: <https://www.justicaeleitoral.jus.br/parcerias-digitais-eleicoes/assets/arquivos/memorando_twitter.pdf>. Acesso em: 19 de jun. 23.

TSE (2020) TSE e TikTok firmam parceria para combate à desinformação. Brasília. Disponível em: <https://www.justicaeleitoral.jus.br/desinformacao/arquivos/termos-de-cooperacao-plataformas-digitais/mou-tik-tok.pdf>. Acesso em: 12 de abr. 2024.

TSE (2018) Memorando de Entendimento. 28 de junho. Brasília. Disponível em: <https://www.justicaeleitoral.jus.br/++theme++justica_eleitoral/pdfjs/web/viewer.html?file=https://www.justicaeleitoral.jus.br/arquivos/memorando-de-atendimento/@@download/file/MEMORANDO%20DE%20ENTENDIMENTO.pdf>. Acesso em: 22 de jan. 2023.

Datas de Publicação

  • Publicação nesta coleção
    09 Dez 2024
  • Data do Fascículo
    2024

Histórico

  • Recebido
    08 Maio 2024
  • Revisado
    16 Ago 2024
  • Aceito
    29 Ago 2024
location_on
Universidade Federal do Paraná Rua General Carneiro, 460 - sala 904, 80060-150 Curitiba PR - Brasil, Tel./Fax: (55 41) 3360-5320 - Curitiba - PR - Brazil
E-mail: editoriarsp@gmail.com
rss_feed Acompanhe os números deste periódico no seu leitor de RSS
Reportar erro