RESUMO
Este artigo busca analisar as estratégias discursivas utilizadas para legitimar desinformação na mídia social e, de modo particular, no Twitter. Para tanto, utilizamos dados que tratam de suspeitas sobre supostas fraudes nas urnas eletrônicas durante o segundo turno das eleições presidenciais de 2018. A partir de um conjunto de dados de 276.875 retweets e 84.577 tweets unicamente com desinformação, extraídos das conversações políticas na ferramenta, examinamos os cinquenta tweets com maior número de retweets e suas estratégias de legitimação a partir de Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
). Como resultado, observamos que tweets ancorados em estratégias de autoridade pessoal e avaliação moral obtiveram maior sucesso em sua legitimação. Deste modo, usuários com autoridade nos canais de mídia social têm importância significativa para espalhar esse tipo de discurso.
PALAVRAS-CHAVE:
desinformação; estratégias discursivas; mídia social; política
ABSTRACT
This paper analyzes the discursive strategies used to legitimize disinformation in social media, particularly on Twitter. Our dataset focuses on disinformation regarding suspicion on frauds in the electronic ballot during the 2018 presidential election. Based on this event, 276,875 retweets and 84,577 tweets exclusively with disinformation from political conversations were collected and legitimation strategies of the fifty most successful tweets were examined (VAN LEEUWEN, 2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
). The results point to the association of personal authority and moral evaluation as the key components of the most successful validated retweets. Thus, users with authority in these medias have a significative importance for spreading this type of discourse.
KEYWORDS:
disinformation; discursive strategies; social media; politics
1 Introdução
A noção de desinformação não é nova. Durante toda a história, há relatos de todo tipo de informações falsas circulando nos grupos sociais. Este é, inclusive, um dos motivos apontados para o desenvolvimento das questões éticas e práticas jornalísticas no final do século XIX e no início do século XX e para o desenvolvimento do chamado “jornalismo moderno”, mais factual e menos opinativo. Recentemente, no entanto, a desinformação ganhou nova atenção de pesquisadores e estudiosos. Sob a alcunha de “fake news” (SHU et al., 2017SHU, K.; SILVA, A.; WANG S.; TANG J.; LIU, H. Fake news detection on social media: a data mining perspectiva. Ithaca, NewYork: Arxiv Cornell University, 2017. Disponível em: Disponível em: https://bit.ly/2mRXZuP . Acesso em: 24 set. 2019.
https://bit.ly/2mRXZuP...
; SHAO et al., 2018SHAO, C.; CIAMPAGLIA, G. L.; VAROL, D.; FLAMMINI, A.; MENCZER, F. The spread of misinformation by social bots. Nature Communications, Ithaca NewYork, v. 9, 4787, 2018. DOI: https://doi.org/10.1038/s41467-018-06930-7. Disponível em: Disponível em: arxiv.org/pdf/1707.07592.pdf . Acesso em: 24 set. 2019.
arxiv.org/pdf/1707.07592.pdf...
), a difusão na mídia social dessas informações falsas, manipuladas ou imprecisas trouxe novos contornos para os efeitos desses processos. As chamadas affordances1
1
O conceito de affordance aqui é utilizado a partir de Boyd (2010, p. 39). De acordo com a autora, compreende “os modos […] através dos quais as pessoas se engajam com esses ambientes” (estruturas tecnológicas). Essas propriedades introduzem, assim, novas formas de interação e participação com a tecnologia.
dos públicos em rede, características da mídia social, permitiram a essas informações um novo espaço de espalhamento e alcance, com efeitos muito mais amplos. Além disso, essas ferramentas permitiram ainda que outros elementos, como o uso de automação e robôs na difusão de mensagens, bem como a escala industrial de produção, gerassem outro impacto (BASTOS; MERCEA, 2017BASTOS, M. T.; MERCEA, D. The Brexit botnet and user-generated hyperpartisan news. Social Science Computer Review, Londres, v. 37, n. 1, p. 38-54, 2017. DOI: https://doi.org/10.1177/0894439317734157
https://doi.org/10.1177/0894439317734157...
). A presença dessas informações na esfera pública, particularmente em processos eleitorais, pode interferir nas decisões, manipulando o debate através da prevalência de discursos ancorados em falsas premissas (MARWICK; LEWIS, 2018MARWICK, A.; LEWIS, R. Media manipulation and disinformation online. Nova York: Data & Society Research Institute, 2018. Disponível em: Disponível em: https://bit.ly/2qVkRKE . Acesso em: 24 set. 2019.
https://bit.ly/2qVkRKE...
; PETERS, 2018PETERS, M. A. The information wars, fake news and the end of globalisation. Educational Philosophy and Theory, Abingdon-on-Thames, v. 50, n. 13, p. 1161-1164, 2018. DOI: https://doi.org/10.1080/00131857.2017.1417200
https://doi.org/10.1080/00131857.2017.14...
).
Assim, este trabalho pretende analisar as estratégias de legitimação utilizadas em um evento de desinformação no Twitter. Chamamos de “evento” o conjunto de ataques, desmentidos pelo Tribunal Superior Eleitoral (TSE), à urna eletrônica e ao processo eleitoral nos dias que antecederam o 2º turno das eleições presidenciais de 2018 no Brasil. Nosso objetivo é compreender as formas de legitimação dos discursos mais bem sucedidos neste espaço, fornecendo pistas para compreender como a desinformação é validada e sob que circunstâncias.
2 Desinformação, discurso e públicos em rede
Atualmente o conceito de desinformação é usado em vários estudos para fazer referência ao fenômeno do espalhamento das chamadas “fake news” na mídia social. Isso porque a alcunha de “notícia falsa” tem sido utilizada para um universo de fenômenos díspares, que não necessariamente referem-se à mesma coisa do mesmo modo, tais como a manipulação fotográfica, clickbaits, teorias da conspiração, sátira e paródia de notícias reais, fabricação de notícias, propaganda política (TANDOC JR.; WEI LIM; LING, 2017TANDOC JR., E. C; LIM, Z. W.; LING, R. Defining fake news: a typology of scholarly definitions. Digital Journalism, Abingdon-on-Thames, v. 6, n. 2, p. 137-153, 2017. DOI: https://doi.org/10.1080/21670811.2017.1360143
https://doi.org/10.1080/21670811.2017.13...
), bem como rumores e boatos (ALLCOTT; GENTZKOW, 2017ALLCOTT, H.; GENTZKOW, M. Social media and fake news in the 2016 election. Journal of Economic Perspectives, Nashville, v. 31, n. 2, p. 1-28, 2017. DOI: https://doi.org/10.1257/jep.31.2.211
https://doi.org/10.1257/jep.31.2.211...
).
Neste contexto, Derakhshan e Wardle (2017DERAKHSHAN, H.; WARDLE, C. Information disorder: definitions. In: UNDERSTANDING AND ADDRESSING THE DESINFORMATION SYSTEM, 1., 2017, Filadélfia. Annals… Filadélfia: University of Pennsylvania, 2017. p. 5-12. Disponível em: Disponível em: https://bit.ly/2GbeyJ2 . Acesso em: 24 set. 2019.
https://bit.ly/2GbeyJ2...
) fazem uma revisão bastante importante do que chamam de fenômeno da “desordem informativa” (information disorder). Para os autores, o conceito compreenderia três acepções diferentes: a disinformation, a misinformation e a malinformation. O primeiro deles, a desinformação, refere-se às informações fabricadas ou manipuladas, de interesse público, espalhadas com a intenção de manipular ou influenciar a opinião pública. O segundo, a misinformation, por sua vez, refere-se às informações falsas não espalhadas de modo intencional (por exemplo, notícias satíricas entendidas erroneamente como verdadeiras e espalhadas como tal) ou “erros honestos” (FALLIS, 2009FALLIS, D. A conceptual analysis of disinformation. In: I Conference, 2009. Annals… Chicago, Illinois: Ischool, 2009. p. 1-8. Disponível em: Disponível em: https://bit.ly/2mpZhx6 . Acesso em: 24 set. 2019.
https://bit.ly/2mpZhx6...
). Finalmente, a malinformation compreenderia a “publicação deliberada” de conteúdo privado, sem interesse público (como seria o caso da desinformação, por exemplo), tal como imagens íntimas, fotos e informações pessoais, com o interesse de agredir alguém. Os dois primeiros conceitos (que chamaremos aqui de “desinformação intencional” e “desinformação não-intencional”) estão mais associados a tentativas de manipular a conversação na esfera pública política, no sentido de criar falsas percepções e manipular as opiniões. O último conceito está mais relacionado à esfera privada, aos ataques pessoais e, portanto, interessa-nos menos neste trabalho.
A desinformação, assim, está associada a discursos que introduzem ideias falsas ou manipuladas nas conversações mediadas por computador. Uma das principais consequências disso, na mídia social, é o efeito de “falso consenso” (SOON; GOH, 2018SOON, C.; GOH, S. Fake news, false information and more: countering human biases. Queenstown: Institute of Policy Studies, 2018. Disponível em: Disponível em: https://nus.edu/2xCBTiK . Acesso em: 24 set. 2019.
https://nus.edu/2xCBTiK...
), que se refere a uma impressão de consenso onde as pessoas tendem a acreditar naqueles discursos que a maioria dos demais parece apoiar. Ou seja, quando um discurso falso se torna prevalente em uma determinada rede, ele tende a impor uma impressão de consenso (inexistente) para seus membros, que acreditam que a informação só pode ser verdadeira, uma vez que todos os demais a aceitam. Essas práticas também têm um forte aspecto do que outros autores denominam confirmation bias (tendência a confirmação), ou seja, a tendência que os atores sociais teriam a receber, validar e reproduzir informações que confirmem seus próprios pontos de vista (NICKERSON, 1998NICKERSON, R. Confirmation bias: a ubiquitous phenomenon in many guises. Review of General Psychology, Washington, v. 2, n. 2, p. 175-220, 1998. DOI: https://doi.org/10.1037/1089-2680.2.2.175
https://doi.org/10.1037/1089-2680.2.2.17...
). E uma vez que essas falsas concepções são introjetadas pelos atores, dificilmente são desconstruídas, mesmo com a apresentação de informações corretas (NYHAN; REIFLER, 2010NYHAN, B.; REIFLER, J. When corrections fail: The persistence of political misperceptions. Political Behaviour, Berlim, v. 32, n. 2, p. 303-330, 2010. DOI: https://doi.org/10.1007/s11109-010-9112-2
https://doi.org/10.1007/s11109-010-9112-...
).
O aumento do impacto da desinformação também está associado a ascensão da mídia social. A mídia social é compreendida como um efeito das ações dos atores nos sites de rede social, publicando e republicando informações de modo a dar visibilidade para determinados discursos em detrimento de outros (RECUERO, 2016RECUERO, R. Discurso mediado por computador nas redes sociais. In: ARAÚJO, J.; LEFFA, V. (org.). Redes Sociais e Ensino de Línguas: O que temos a aprender? São Paulo: Parábola, 2016. p. 17-32, v. 1.). Essas ações, que são partes de processos conversacionais, trazem mudanças importantes nos modos de circulação dos discursos (MARWICK; LEWIS, 2018MARWICK, A.; LEWIS, R. Media manipulation and disinformation online. Nova York: Data & Society Research Institute, 2018. Disponível em: Disponível em: https://bit.ly/2qVkRKE . Acesso em: 24 set. 2019.
https://bit.ly/2qVkRKE...
) transformando a mídia social em um espaço propício para a desinformação. A mídia social, assim, possui as affordances dos chamados públicos em rede (BOYD, 2010BOYD, D. Social network sites as networked publics: affordances, dynamics, and implications. In: PAPACHARISSI, Z. (ed.). A networked self: identity, community, and culture on social network sites. Abingdon: Routledge, 2010. p. 39-58.). Este conceito propõe características dinâmicas e de infraestrutura técnica para estes novos espaços públicos. Assim, são associados à mídia social elementos como a facilidade de publicação e reprodução do conteúdo, sua escalabilidade (facilidade de reprodução em larga escala), alcance e permanência no espaço online (uma vez publicado, é difícil de ser apagado por completo), que foram capazes de conferir ao fenômeno da desinformação um impacto ampliado (RECUERO, 2016RECUERO, R. Discurso mediado por computador nas redes sociais. In: ARAÚJO, J.; LEFFA, V. (org.). Redes Sociais e Ensino de Línguas: O que temos a aprender? São Paulo: Parábola, 2016. p. 17-32, v. 1.). Notadamente, essas características podem permitir que informações falsas sejam mais rapidamente espalhadas, influenciando também, por sua vez, as práticas de informação dos atores.
O papel dos atores nas práticas de produção e informação no Twitter também já foi estudado por alguns autores. Xu et al. (2014XU, W. W.; SANG, Y.; BLASIOLA, S.; PARK, H. W. Predicting opinion leaders in Twitter activism networks. American Behavioral Scientist, Londres, v. 58, n. 10, p. 1278-1293, 2014. DOI: https://doi.org/10.1177/0002764214527091
https://doi.org/10.1177/0002764214527091...
), por exemplo, mostraram que usuários com maior conectividade e envolvimento com o assunto no Twitter tendiam a influenciar mais os fluxos de informação, assim como as organizações. Esse envolvimento maior com as ferramentas e com a rede poderia ser associado com conhecimento e expertise, dando mais poder a determinados atores na discussão política. Soares, Recuero e Zago (2018SOARES, F. B.; RECUERO, R.; ZAGO, G. Influencers in polarized political networks on Twitter. In: INTERNATIONAL CONFERENCE ON SOCIAL MEDIA AND SOCIETY, 9., 2018, Nova York. Proceedings […] Nova York: ACM, 2018. p. 168-177. DOI: https://doi.org/10.1145/3217804.3217909
https://doi.org/10.1145/3217804.3217909...
) também discutiram os diferentes papéis dos atores na conversação política. Este trabalho destaca o envolvimento de diferentes tipos de atores nos processos de difusão de informações nas conversações políticas: os “líderes de opinião”, ou seja, usuários que recebem muita atenção no Twitter; os “influenciadores informacionais”, veículos de mídia também com bastante atenção; e os “ativistas”, isso é, usuários que participam muito mais do que os outros na conversação. Entretanto, pouco foi discutido, por exemplo, a respeito de como esses usuários legitimam o conteúdo e seu papel na propagação dos discursos.
Para este trabalho, focando de modo particular na desinformação (intencional ou não) de caráter político, interessam-nos, assim, as estratégias de legitimação dos discursos particulares sobre um evento, as narrativas de “fraude nas urnas eletrônicas”. O que estamos discutindo como desinformação neste trabalho, conforme explicamos, está relacionado à ideia de que há um espalhamento de informações falsas ou enganosas, rumores e boatos como tentativa de manipulação da opinião pública através da mídia social. Estas práticas têm sido observadas com alguma frequência desde 2016 em grandes decisões públicas, como as eleições presidenciais nos EUA (MARWICK; LEWIS, 2018MARWICK, A.; LEWIS, R. Media manipulation and disinformation online. Nova York: Data & Society Research Institute, 2018. Disponível em: Disponível em: https://bit.ly/2qVkRKE . Acesso em: 24 set. 2019.
https://bit.ly/2qVkRKE...
; PETERS, 2018PETERS, M. A. The information wars, fake news and the end of globalisation. Educational Philosophy and Theory, Abingdon-on-Thames, v. 50, n. 13, p. 1161-1164, 2018. DOI: https://doi.org/10.1080/00131857.2017.1417200
https://doi.org/10.1080/00131857.2017.14...
) e a campanha do Brexit no Reino Unido (BASTOS; MERCEA, 2017BASTOS, M. T.; MERCEA, D. The Brexit botnet and user-generated hyperpartisan news. Social Science Computer Review, Londres, v. 37, n. 1, p. 38-54, 2017. DOI: https://doi.org/10.1177/0894439317734157
https://doi.org/10.1177/0894439317734157...
) entre outros. Estes estudos parecem consistentemente apresentar uma articulação em torno das campanhas de desinformação política, seja através do uso de automatização na propagação de notícias partidárias por meio de redes de bots (BASTOS; MERCEA, 2017BASTOS, M. T.; MERCEA, D. The Brexit botnet and user-generated hyperpartisan news. Social Science Computer Review, Londres, v. 37, n. 1, p. 38-54, 2017. DOI: https://doi.org/10.1177/0894439317734157
https://doi.org/10.1177/0894439317734157...
), seja através da articulação de grupos que se mobilizam em torno da campanha política dos candidatos, agindo como fãs e propagando apenas informações com as quais concordam, sejam elas verdadeiras ou não (AZZIMONTI; FERNANDES, 2018AZZIMONTI, M.; FERNANDES, M. Social media networks, fake news and polarization. NBER Working Paper No. 24462, 2018. Disponível em: Disponível em: https://bit.ly/2mZ67Kf . Acesso em: 24 set. 2019. DOI: https://doi.org/10.3386/w24462
https://bit.ly/2mZ67Kf...
). As estratégias de desinformação e a circulação de notícias partidárias na mídia social também foram associadas com núcleos hiperpartidários, veículos não tradicionais de mídia e, principalmente, com a propagação de discursos de extrema direita (FARIS et al., 2017FARIS, R.; ROBERTS, H.; ETLING, B.; BOURASSA, N.; ZUCKERMAN, E.; BENKLER, Y. Partisanship, propaganda, and disinformation: online media and the 2016 US presidential election. Cambridge: Berkman Klein Center for Internet & Society, 2017.). Este contexto nos dá o enquadramento dentro do qual pretendemos trabalhar as noções de estratégias de legitimação desses discursos.
3 Estratégias de legitimação discursivas e desinformação
A desinformação, como fenômeno, está diretamente relacionada às estratégias de legitimação utilizadas em seu discurso. Para que os atores sociais reproduzam um determinado discurso, há uma necessidade de enquadramento dentro de uma realidade legitimadora. Considerando a linguagem como prática social (HALLIDAY, 1978HALLIDAY, M. Language as social semiotic. Londres: Hodder Arnold, 1978.; FAIRCLOUGH, 1989FAIRCLOUGH, N. Language and power. Londres: Longman, 1989.), compreendemos discurso, neste trabalho, nos termos de Fairclough (1989FAIRCLOUGH, N. Language and power. Londres: Longman, 1989.), para quem o conceito refere-se tanto às unidades de texto quanto à sua função. A legitimação, neste âmbito teórico, está relacionada ao papel do discurso em promover a aceitação dessas práticas e relações sociais, muitas vezes, de desigualdade. Está assim intrinsecamente conectada ao conceito de poder, onde um sujeito pretende a aceitação do outro. Para ser aceito de modo voluntário este poder precisa ser compreendido como digno de obediência, legítimo. A legitimação, assim, é constituída como uma justificativa para a ordem institucional de uma dada sociedade, obtida através do discurso (VAN LEEUWEN, 2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
). Assim, esses discursos contribuem com as impressões de consenso (SOON; GOH, 2018SOON, C.; GOH, S. Fake news, false information and more: countering human biases. Queenstown: Institute of Policy Studies, 2018. Disponível em: Disponível em: https://nus.edu/2xCBTiK . Acesso em: 24 set. 2019.
https://nus.edu/2xCBTiK...
) não apenas pela sua presença, mas, também, pelas suas estratégias de legitimação.
Deste modo, podemos compreender a legitimação dos discursos de desinformação como uma forma de naturalizar e constituir as relações de poder que esses textos propõem. Com isso, o processo de deslegitimação da urna eletrônica teria efeitos importantes na esfera democrática, colocando em dúvida, inclusive, o próprio processo eleitoral no Brasil. Pelo seu caráter público, a legitimação da desinformação também influenciaria as conversações e a esfera pública como um todo, levando essa desinformação para outros espaços. Por conta disso, consideramos que compreender como esses discursos são legitimados é um elemento importantíssimo para o estudo do fenômeno da desinformação na mídia social no processo das eleições presidenciais no Brasil. Para esta discussão, partiremos da proposta de Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
). O autor propõe quatro categorias-base de legitimação dos discursos na comunicação pública e privada:
-
Autorização (A) - A autorização é uma legitimação pela referência a uma autoridade, seja ela pessoal (um indivíduo com posição ou autoridade institucional) ou impessoal (referente a elementos como tradição, leis, costumes etc.). Esse tipo de autorização está relacionado ao uso da autoridade no discurso para lhe conferir veracidade ou credibilidade. Para Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986... ), há dois tipos de autoridade pessoal: a primeira, referente ao papel como “modelo”, líder de opinião (autoridade derivada da posição do ator na rede), e a segunda ao expert (autoridade derivada do conhecimento do ator). -
Avaliação Moral (AM) - A avaliação moral é a legitimação pela referência a um discurso de valor maior, por exemplo, através da de categorias de “bom” (ou moralmente desejável) e “mau” (ou moralmente indesejável). Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986... ) ainda especifica que a avaliação moral pode ser construída com base nesta adjetivação (avaliação), através da abstração (por exemplo, a generalização de algo “bom” ou “ruim”), ou da analogia (por exemplo, a classificação de algo como “bom” ou “ruim” pela similaridade proposta com outro caso). -
Racionalização (R) - Trata-se do uso de uma validação cognitiva supostamente apoiada pelo conhecimento. Aqui, Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986... ) também distingue dois tipos de racionalização: a instrumental e a teórica. A primeira refere-se a uma explicação sobre as práticas sociais, ou sobre a própria realidade. Assim, ela “explica porque as práticas sociais existem e porque tomam as formas que tomam” (p. 101, tradução nossa). Esse tipo de racionalização está, geralmente, orientado a um princípio lógico de ação para determinado propósito. Já a racionalização teórica está diretamente relacionada a uma validação de um pressuposto maior, “alguma forma de verdade” (p. 101, tradução nossa). Ela pode estar ancorada na definição de uma “verdade”, na explicação de algo ou mesmo em uma predição. A estratégia da racionalização, assim, apoia-se em um movimento de logicidade da conexão entre dois elementos (mesmo que ancorado em pressupostos falsos). -
Mythopoesis (M) - Esse tipo de legitimação envolve a construção de narrativas ou histórias, sejam de cunho moral (onde o “bem” vence o “mal”, por exemplo) ou que construam algum tipo de alerta (VAN LEEUWEN, 2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986... ). Essas narrativas são usadas para legitimar fatos e seus julgamentos de valor.
Esta proposta auxilia a compreensão das estratégias utilizadas pelos atores, na mídia social, para construir determinadas percepções e conquistar a aceitação de seus discursos. Pretendemos, assim, utilizá-la como norte para entender o contexto de desinformação.
Em termos de mídia social, as disputas pela legitimação dos discursos já foram discutidas por vários autores. Glozer, Caruana e Hibbert (2018GLOZER, S.; CARUANA, R.; HIBBERT, S. A. The never-ending story: discursive legitimation in social media dialogue. Organization Studies, Londres, v. 40, n. 5, p. 625-650, 2018. DOI: https://doi.org/10.1177/0170840617751006
https://doi.org/10.1177/0170840617751006...
), por exemplo, abordam a questão da validação do discurso na mídia social a partir de uma perspectiva bakthiniana, para construir categorias de legitimação bastante semelhantes às que apresentamos neste trabalho. No Twitter, de modo especial, vários autores já examinaram as práticas de republicação (retweet) de um ou vários enunciados como estratégias de legitimação ou deslegitimação per se (BRUNS; BURGESS, 2014BRUNS, A.; BURGESS, J. Crisis Communication in Natural Disasters The Queensland Floods and Christchurch Earthquakes. In: WELLER, K.; BRUNS, A.; BURGESS, J.; MAHRT, M.; PUSCHMANN, C. Twitter and Society. Nova York: Peter Lang, 2014. p. 373-384. Disponível em: Disponível em: https://bit.ly/2mpbUsi . Acesso em: 24 set. 2019.
https://bit.ly/2mpbUsi...
). Neste contexto, uma das práticas fundamentais da ferramenta, o retweet,2
2
O retweet significa a reprodução de um tweet de outra fonte, com ou sem comentário.
teria um papel importante. Para Boyd, Golder e Lotan (2010BOYD, D.; GOLDER, S.; LOTAN G. Tweet, tweet, retweet: conversational aspects of retweeting on Twitter. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES (HICSS), 43., 2010, Kauai. Annals… Honolulu: University of Hawaii, 2010. p. 1-10. DOI: https://doi.org/10.1109/HICSS.2010.412
https://doi.org/10.1109/HICSS.2010.412...
), uma das principais motivações para esta prática é a validação. Esta validação está relacionada à reprodução de um discurso que é compartilhado por quem faz o retweet, notadamente, quando este não é acompanhado de nenhum tipo de comentário que enquadre este discurso sob outra perspectiva. As práticas sociais de replicação de informações, características dos canais de mídia social, deste modo, também se constituem em práticas de legitimação e deslegitimação, onde os discursos que são mais validados pelos grupos obtém maior visibilidade na rede. Discutiremos, a seguir, como esses conceitos foram utilizados em nosso estudo de caso.
4 Estudo de caso: a desinformação em torno da credibilidade da urna eletrônica no Brasil
Para compreendermos as estratégias de legitimação do discurso em contextos de desinformação, escolhemos o evento discursivo da fraude na urna eletrônica durante o segundo turno das eleições presidenciais de 2018. Neste caso, interessam-nos os discursos no Twitter que buscavam desacreditar a urna e, por consequência, o processo eleitoral brasileiro como um todo.
A urna eletrônica brasileira tem 22 anos de uso sem incidentes nos processos eleitorais (BRASIL, 2014BRASIL. Tribunal Superior Eleitoral. Conheça a história da urna eletrônica brasileira, que completa 18 anos. Tribunal Superior Eleitoral. Brasília, 20 jun. 2014. Disponível em: Disponível em: https://bit.ly/2mFJoCK . Acesso em: 25 set. 2019.
https://bit.ly/2mFJoCK...
). Apesar disso, é alvo frequente de desinformação, notadamente relacionada a teorias da conspiração e fraude eleitoral. Não foi diferente durante as eleições de 2018. Sofreu ataques a sua credibilidade, com diversas informações falsas, como a de que “estudos” indicariam a possibilidade de fraude da eleição brasileira em 73% (MOTA; COUTO; ROCHA, 2018MOTA, M.; COUTO, M.; ROCHA, G. Mensagens com conteúdo #FAKE sobre fraude em urnas eletrônicas se espalham nas redes. G1, Rio de Janeiro, 06 out. 2018. Disponível em: Disponível em: https://glo.bo/2PcUgBo . Acesso em: 25 set. 2019.
https://glo.bo/2PcUgBo...
), e a de que teria sido fabricada na Venezuela e seria usada para manipular a vitória do candidato do Partido dos Trabalhadores (PT) (DEARO, 2018DEARO, G. Urna eletrônica fabricada e controlada pela Venezuela? Entenda o boato. Exame, São Paulo, 24 set. 2018. Disponível em: Disponível em: https://bit.ly/2nindTD . Acesso em: 25 set. 2019.
https://bit.ly/2nindTD...
; LOPES, 2018LOPES, G. O TSE entregou os códigos de segurança das urnas eletrônicas para a Venezuela? E-Farsas, São Paulo, 18 set. 2018. Disponível em: Disponível em: https://bit.ly/2ngfoOa . Acesso em: 25 set. 2019.
https://bit.ly/2ngfoOa...
), boato que persistiu na mídia social mesmo após ser desmentido por inúmeros sites de fact-checking e pela mídia tradicional. Essa desinformação ganhou força e foi espalhada principalmente a partir de canais da mídia social.
Os dados utilizados nesta análise foram coletados do Twitter, através do Social Feed Manager (GEORGE WASHINGTON UNIVERSITY LIBRARIES, 2016GEORGE WASHINGTON UNIVERSITY LIBRARIES. Social Feed Manager. 2016. Disponível em: Disponível em: https://bit.ly/2nhqWAI . Acesso em: 25 set. 2019.
https://bit.ly/2nhqWAI...
). A ferramenta coleta e arquiva automaticamente tweets públicos que contenham uma ou mais palavras-chave determinadas pelos pesquisadores a partir da Application Programming Interface (API) do Twitter. No caso do conjunto de dados que utilizamos neste trabalho, foram coletados tweets relacionados aos conceitos de “urna” e “urna eletrônica” no período de 24 a 30 de outubro de 2018. Em termos totais, foram coletados 1.483.322 tweets que continham estas expressões. Após, foi feita a limpeza, onde retiramos todos os tweets que não se referiam especificamente a notícias falsas, boatos ou rumores sobre a credibilidade da urna ou que não estivessem em português.
Como desejamos analisar a validação em torno da desinformação, separamos tweets de retweets, mensagens que são reproduzidas por mais de uma conta, conforme Boyd, Golder e Lotan (2010BOYD, D.; GOLDER, S.; LOTAN G. Tweet, tweet, retweet: conversational aspects of retweeting on Twitter. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES (HICSS), 43., 2010, Kauai. Annals… Honolulu: University of Hawaii, 2010. p. 1-10. DOI: https://doi.org/10.1109/HICSS.2010.412
https://doi.org/10.1109/HICSS.2010.412...
). Ficamos assim com 276.875 tweets únicos e 84.577 retweets com pelo menos uma reprodução. Para analisar os dados qualitativamente, de modo que pudéssemos observar os textos em si, selecionamos os cinquenta tweets com maior número de retweets, com o objetivo de mostrar as desinformações que foram mais validadas. Essa quantidade variou entre 783 e 13.387 e sua distribuição pode ser observada na Figura 1. Como podemos ver, por um lado, há um pequeno número de tweets com grande alcance e grande número de retweets concentrado em um pequeno número de tweets originais; por outro lado, há um grande número de tweets com um pequeno número de retweets. Assim, nesta seleção fomos capazes de abarcar uma quantidade relevante de tweets no conjunto de dados (um total de 116.569 tweets e retweets).
Dessa forma, a Figura 1 mostra que poucos tweets conseguem obter visibilidade e grande quantidade de replicações. Conforme discutimos, é possível que os tweets com maior visibilidade sejam os mais bem sucedidos em suas estratégias de legitimação. Por isso, cada um desses textos foi analisado para que encontrássemos suas estratégias de legitimação discursiva3 3 Os tipos de legitimação são apresentados conforme a notação utilizada na sua apresentação original na sessão anterior. , conforme a Tabela 1.
Tweets analisados e classificação4 4 Os tweets foram apresentados de modo resumido por conta do espaço. No entanto, foram analisados em sua integralidade através das respectivas URL . Além disso, anonimizamos todos os usuários atendendo às recomendações de ética em pesquisa e dados digitais da Association of Internet Researchers - https://aoir.org/ethics/.
A Tabela 2 especifica os dados classificados em termos de acordo com estratégias de legitimação encontradas nos textos, número de tweets originais com cada uma delas e o número total de retweets de cada categoria. Com isso, podemos ver os tipos mais presentes nos dados, que explicaremos na sequência.
Autorização e avaliação moral (A, AM)
A maior parte dos tweets cuja difusão parece ser bem sucedida tem parte de sua legitimação baseada na autoridade pessoal daquele que repassa a informação. Sabendo que uma das funções do retweet é a validação de uma determinada ideia ou posicionamento (BOYD; GOLDER; LOTAN, 2010BOYD, D.; GOLDER, S.; LOTAN G. Tweet, tweet, retweet: conversational aspects of retweeting on Twitter. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES (HICSS), 43., 2010, Kauai. Annals… Honolulu: University of Hawaii, 2010. p. 1-10. DOI: https://doi.org/10.1109/HICSS.2010.412
https://doi.org/10.1109/HICSS.2010.412...
), parece relevante compreender que a estrutura do discurso que credita autoridade pessoal a um ator (VAN LEEUWEN, 2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
) é extremamente importante. Apesar disso, nem todos os retweets estão ancorados em autoridade, pois em muitos casos, o foco da validação não está no autor do tweet, mas na visibilidade do texto em si (BOYD; GOLDER; LOTAN, 2010BOYD, D.; GOLDER, S.; LOTAN G. Tweet, tweet, retweet: conversational aspects of retweeting on Twitter. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES (HICSS), 43., 2010, Kauai. Annals… Honolulu: University of Hawaii, 2010. p. 1-10. DOI: https://doi.org/10.1109/HICSS.2010.412
https://doi.org/10.1109/HICSS.2010.412...
). Deste modo, consideramos autoridade apenas retweets cuja fonte continha as características propostas por Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
), por exemplo, a credibilidade pessoal que se acrescenta ao discurso (como é o caso de retweets de figuras famosas e influentes no campo político) ou autoridade impessoal (no sentido de mensagens que fazem menção à tradição ou às leis). Deste modo, as ações destas fontes conferem ao discurso autorização. Dos cinquenta tweets analisados, trinta estão fortemente ancorados na autoridade do emissor original da mensagem, daquele a quem o retweet dá crédito.
É interessante analisar, no entanto, que boa parte dos tweets com esse tipo de autorização também estão ancorados em uma opinião da fonte que espalha o discurso. Isso mostra que a autorização aconteceu junto com a avaliação moral do comportamento denunciado pela desinformação apresentada no tweet. Um exemplo importante é o tweet de uma deputada com 264 mil seguidores. O texto diz: “Gente, olha que urna mais boazinha. Basta apertar o número 1 na urna e ela escolhe o candidato pra você. Beleza, hein!!! Nossas urnas são mesmo SUPER SEGURAS… para o PT”. Este tweet, o segundo de maior impacto no conjunto de dados, posiciona-se de modo irônico sobre o comportamento da urna eletrônica e faz uma avaliação moral referente ao link apresentado na sequência: “Gente, olha que urna mais boazinha […]” seguido pelo destaque em letras maiúsculas e pela qualificação “SUPER SEGURAS”, “Beleza, hein!”. O link em questão apresenta um vídeo falso mostrando que, ao apertar o 1, aparecia a foto do candidato Fernando Haddad (PT). Assim, os tweets originais utilizam a avaliação moral ancorada no que é moralmente indesejável, o uso da urna eletrônica fraudada, para deslegitimá-la. Os retweets, de modo subsequente, utilizam não apenas as estratégias originais do tweet, mas, igualmente, a autoridade pessoal da deputada para legitimar o discurso.
O mesmo ocorre com o tweet de um famoso escritor com mais de 150 mil seguidores, que especifica: “Tem vídeo mostrando urna na qual você digita 1 e já aparece o poste do Lula. Mesmo com denúncia, vai dizer que é uma urna ‘com defeito’, que o TSE democraticamente ‘substituiu’. Isso não é ‘defeito’. É fraude. É totalitarismo. É o roubo supremo da liberdade do povo”. O texto em questão avalia a urna eletrônica fazendo referência a um vídeo (de modo idêntico ao primeiro tweet) onde alguém digitaria 1 e aparecia o “poste” do Lula (no vídeo aparece o candidato do PT, Fernando Haddad) e sentencia que o processo “é fraude”, “totalitarismo” e “roubo supremo”. Vemos, no uso dos adjetivos e na qualificação da urna, a legitimação moral da contrariedade à urna. Assim, também se ancora na autoridade pessoal do emitente esse enquadramento da urna eletrônica, onde uma informação falsa que a desacredita é dada como verdadeira e legitimada diante de um discurso moral (muitas vezes irônico).
Esta foi a principal categoria encontrada em nossos dados. Compreendeu 50,93% dos retweets analisados, sendo a principal estratégia de legitimação dos discursos que analisamos. Essa importante estratégia esteve conectada principalmente com os tweets mais repassados, tendo sua presença reduzida conforme o número de retweets diminuía. Isso mostra a importância da autoridade para o sucesso da difusão de informações e da legitimação da desinformação. Note-se que esta categoria compreendeu, principalmente, a publicação de uma informação fabricada, porém com um comentário moral.
Mythopoesis (M)
Esta categoria esteve profundamente relacionada com textos típicos de veículos jornalísticos, impessoais e que focam na informação. Entretanto, em todos os casos os textos traziam uma informação falsa ou fabricada. Um exemplo é o tweet5
5
Foram feitas pequenas modificações no texto (notadamente substituição de preposições ou acréscimo de artigos) para impedir a sua localização.
“RT @usuario7: A polícia foi chamada em São Paulo para esta seção eleitoral em que a urna finaliza o voto antes da pessoa escolher o candidato”. No caso em questão, o tweet original foi criado por um usuário com poucos seguidores em comparação com aqueles cuja difusão estava ancorada na autoridade (menos de 14 mil, contra quase 1 milhão). A estratégia de legitimação, portanto, não está no autor da mensagem, mas na mensagem em si. Vemos uma história completa no tweet, na qual a polícia teria sido chamada para investigar o caso da urna que “finaliza o voto antes da pessoa escolher o candidato”. O texto, deste modo, conta uma história falsa (MINAS GERAIS, 2018MINAS GERAIS. Tribunal Regional Eleitoral. Justiça Eleitoral esclarece boato sobre processamento dos votos na urna antes da tecla confirma. Tribunal Regional Eleitoral-MG. Belo Horizonte, 07 out. 2018. Disponível em: Disponível em: https://bit.ly/2OGiC9O . Acesso em: 26 set. 2019.
https://bit.ly/2OGiC9O...
) que vai contribuir para a narrativa de que a urna não tem credibilidade, trazendo personagens como a polícia e os eleitores. Outros casos semelhantes foram encontrados em narrativas de veículos informativos, como no caso “RT @usuario4: ELEIÇÕES 2018: Eleitores já denunciam possível fraude nas urnas. Neste vídeo podemos ver um caso onde o eleitor aperta apenas a tecla ‘1’ para presidente e a urna automaticamente preenche o número do PT”. O tweet então apresenta um link para o vídeo falso onde a urna se “autocompleta”. O caráter informativo do texto, que conta a história da suposta fraude (na qual os “eleitores” que já “denunciam possível fraude” são as personagens que relatam a história explicitada pelo veículo) também constrói um discurso ancorado na credibilidade dela e do mito da “fraude na urna”. Esta categoria também esteve presente em boa parte da amostra, contando com 20,28% dos dados.
Avaliação moral e mythopoesis (AM, M)
Uma variação da avaliação moral é composta de uma história que confirma essa visão. Esse é o caso de tweets como o que segue: “RT @usuario14: Durante auditoria do TSE, URNA falha na frente do FISCAL e de todos #NãoAceitoFraude (link)”. No texto, vemos uma posição moral expressa pela hashtag #NãoAceitoFraude, que segue a história apresentada (de que a urna teria falhado na frente do fiscal e nada foi feito). No caso, a legitimação do discurso contrário ao uso da urna eletrônica é realizada através de uma história (ou “mais” uma história) seguida de um posicionamento de avaliação moral do emitente (“não aceito fraude”). A autoria do tweet original é pouco importante neste caso pois temos como autor um sujeito com poucos seguidores, pouca autorização e pouco impacto na rede. Outro caso semelhante é o tweet “SHOW DE HORRORES NA PERÍCIA REALIZADA NESTE SÁBADO NAS URNAS QUE DERAM PROBLEMAS E FORAM APREENDIDAS. Urna utilizada no 1º turno apresenta o mesmo erro denunciado por milhares de pessoas, durante teste público ocorrido no TRE de São Paulo. Técnico do TSE disfarça”. No caso, a maior força está na avaliação moral (“show de horrores” da perícia na urna) e na presença do mesmo erro “denunciado por milhares de pessoas”. No entanto, a imagem que segue o texto, um pequeno filme no qual não se vê quase nada, contribui para a construção da narrativa de que a urna seria insegura e que há uma conspiração para validá-la.
Autoridade e racionalização (A, R)
Outra estratégia de legitimação identificada nos dados foi o uso conjunto da autoridade pessoal do tweet original e uma racionalização como legitimação. É o caso de tweets como o do @Usuario9. O autor, pastor líder de seu ministério, afirma, em seu tweets que “SE A URNA ELETRÔNICA É 100% SEGURA, UMA PERGUNTA; Porque os EUA, Alemanha, Canadá, França, etc, etc…não usam?” A pergunta retórica busca relacionar a segurança da urna com a sua suposta não adoção por outros países (percebidos como mais desenvolvidos que o Brasil). A informação na qual o raciocínio da autoridade está baseada é falsa, uma vez que a urna eletrônica é utilizada sim em outros processos eleitorais.6
6
Cada país utiliza um modelo diferente de urna (CARVALHO, 2018).
Neste caso, a legitimação pelo retweet está relacionada com a autoridade daquele que primeiro expressa o discurso, seguido por uma racionalização. No caso, temos uma racionalização empírica (por que as coisas tomam a forma que tomam), porém, exemplos de racionalização teórica também foram encontrados: “Não tem como saber, a urna é inauditável […]”. A urna eletrônica brasileira é sim, auditável (BRASIL, 2018BRASIL. Tribunal Superior Eleitoral. Urna eletrônica: aprovada realização de auditoria em tempo real. Tribunal Superior Eleitoral. Brasília, 20 maio 2018. Disponível em: Disponível em: https://bit.ly/2Rof8Hl . Acesso em: 26 set. 2019.
https://bit.ly/2Rof8Hl...
), porém, no tweet em questão, há a afirmação de uma “verdade” (a urna é inauditável) seguida pela racionalização (logo, não temos como saber (se há fraude ou não)). Essas estratégias tratam de legitimar o conteúdo do tweet com uma racionalização em cima da informação falsa. Também utilizam a autoridade daquele que origina o discurso como ponto de legitimação que é sempre de autoridade pessoal, enquanto a racionalização é, na maioria das vezes, instrumental.
Outros
Além das categorias que especificamos, ainda encontramos quatro tweets que apresentavam combinações de estratégias de legitimação diferentes. Destes, dois tweets utilizavam a estratégia da racionalização. O primeiro utiliza a racionalização teórica, oferecendo uma explicação para as coisas que são: “JAPÃO, SUÍÇA, EUA E ALEMANHA REJEITARAM A URNA ELETRÔNICA. APENAS ALGUNS PAÍSES DE 3º MUNDO APROVARAM A TAL JIRIGONÇA […]”. O segundo tweet utilizou-se da racionalização instrumental, criando uma construção de motivação e objetivo sobre as fraudes que seriam observáveis nas urnas: “Foi votar, deu problema? 1) Faca questão do registro na ata de votação da seção; 2) Faca boletim de ocorrência na polícia […]”. Também encontramos duas avaliações morais por analogia (“A URNA ELECTRÔNICA É MAIS SEGURA QUE ENGRAVIDAR DO GOLEIRO BRUNO” e “URNA ELECTRÔNICA: TÃO CONFIÁVEL QUANTO O ALEXANDRE NARDONI NA PROFISSÃO DE BABÁ”). Em outro caso encontramos uma avaliação moral na qual o autor utilizou uma descrição negativa da urna reforçando o discurso de fraude independentemente de autoridade do tweet original: “Para que fique bem claro Com Voto em cédula, se apuração for secreta é FRAUDE! Urna eletrônica é a FRAUDE PRONTA”. Em todos os casos, a autoridade como forma de legitimação não estava presente não apenas porque observamos tweets de usuários com um pequeno número de seguidores, mas também porque não há a construção de uma autorização para dizer o que se diz.
5 Discussão
Primeiramente, podemos observar que a maior parte dos tweets analisados utiliza mais de uma estratégia de legitimação. De modo geral, a autorização (VAN LEWEEUEN, 2007) decorrente da autoridade pessoal foi a estratégia de maior impacto em termos de reprodução discursiva das críticas à urna eletrônica. Assim, atores cuja autoridade pessoal decorre de seu status de líderes de opinião parecem ter sido os principais responsáveis pelo espalhamento e visibilidade do discurso analisado.
A partir da análise, pudemos constatar que a forma do retweet “RT @usuario texto” contribui para a validação do texto, uma vez que dá o crédito do texto original a um determinado ator, que pode ou não incutir no retweet a sua autoridade pessoal. Assim, como afirma Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
), dependendo do ator que aparece no texto original (um líder de opinião, por exemplo), podemos encontrar uma legitimação por autoridade. Além disso, a pessoalidade da opinião do ator que é anexada à desinformação (notadamente sob a forma de avaliação moral ou alguma racionalização juntamente com o link para a informação falsa, vídeo ou imagem) também incorpora a autoridade ao texto.
É importante notar, também, que esses atores utilizaram não apenas a sua autoridade, mas, igualmente, uma estratégia de legitimação moralizadora (“não podemos aceitar esta fraude”) ou racionalizadora (“a fraude ocorre porque as urnas são do PT”) (VAN LEEUWEN, 2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
). Essas duas estratégias, conjuntamente com a autoridade da fonte, foram responsáveis por 74% dos tweets analisados, mostrando não apenas sua importância, mas também, seu impacto na conversação no Twitter. Deste modo, podemos sublinhar que possivelmente não apenas a centralidade do usuário na rede é chave para a propagação da desinformação, como apontaram Xu et al. (2014XU, W. W.; SANG, Y.; BLASIOLA, S.; PARK, H. W. Predicting opinion leaders in Twitter activism networks. American Behavioral Scientist, Londres, v. 58, n. 10, p. 1278-1293, 2014. DOI: https://doi.org/10.1177/0002764214527091
https://doi.org/10.1177/0002764214527091...
) e Soares, Recuero e Zago (2018SOARES, F. B.; RECUERO, R.; ZAGO, G. Influencers in polarized political networks on Twitter. In: INTERNATIONAL CONFERENCE ON SOCIAL MEDIA AND SOCIETY, 9., 2018, Nova York. Proceedings […] Nova York: ACM, 2018. p. 168-177. DOI: https://doi.org/10.1145/3217804.3217909
https://doi.org/10.1145/3217804.3217909...
), mas igualmente a estratégia discursiva de legitimação utilizada pelo ator em questão. Como vimos, as autoridades que produziram discursos com maior validação utilizaram textos opinativos para apresentar a informação em questão.
Outro elemento que observamos foi a frequência de tweets legitimados através de mythopoesis (VAN LEEUWEN, 2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
), que contribuíram para o evento desinformativo a partir de narrativas construídas em torno de uma possível fraude nas urnas. Essas narrativas, embora diferentes, continham sempre elementos de histórias que “comprovavam” as fraudes. E ainda que tenham sido desmentidas pelos canais oficiais e veículos informativos, receberam grande validação. A presença dessas várias histórias, contadas por diferentes atores na rede, também pode contribuir para impressões de consenso sobre o evento (fraude nas urnas) (SOON; GOH, 2018SOON, C.; GOH, S. Fake news, false information and more: countering human biases. Queenstown: Institute of Policy Studies, 2018. Disponível em: Disponível em: https://nus.edu/2xCBTiK . Acesso em: 24 set. 2019.
https://nus.edu/2xCBTiK...
), uma vez que espalham a impressão de que inúmeras pessoas estão relatando fraudes em lugares diferentes do país.
Podemos dizer, assim, que em nosso conjunto de dados, os tweets com desinformação mais bem sucedidos (ou seja, aqueles que receberam maior número de retweets) utilizaram essas estratégias. O enquadramento da desinformação, assim, trouxe um texto que não apenas continha uma autorização de fala, dando-lhe credibilidade, mas uma estratégia de legitimação moral ou racionalizadora sobre a “fraude” na urna eletrônica. Essas estratégias, portanto, estão relacionadas à legitimação da desinformação e não à sua deslegitimação. Deste modo, contribuem para ampliar o impacto dessa desinformação, conferindo-lhe validação e amplificando sua reverberação na rede que pode contribuir para criar a falsa impressão de consenso especificada por Nickerson (1998NICKERSON, R. Confirmation bias: a ubiquitous phenomenon in many guises. Review of General Psychology, Washington, v. 2, n. 2, p. 175-220, 1998. DOI: https://doi.org/10.1037/1089-2680.2.2.175
https://doi.org/10.1037/1089-2680.2.2.17...
), impactando também os comportamentos e práticas sociais dos atores expostos a esses discursos (SOON; GOH, 2018SOON, C.; GOH, S. Fake news, false information and more: countering human biases. Queenstown: Institute of Policy Studies, 2018. Disponível em: Disponível em: https://nus.edu/2xCBTiK . Acesso em: 24 set. 2019.
https://nus.edu/2xCBTiK...
).
É importante notar, entretanto, que os tweets e retweets originais analisados são fruto de intencionalidade, portanto, podem contribuir tanto para a desinformação intencional (disinformation) quanto para a não intencional (misinformation) (DERAKHSHAN; WARDLE, 2017DERAKHSHAN, H.; WARDLE, C. Information disorder: definitions. In: UNDERSTANDING AND ADDRESSING THE DESINFORMATION SYSTEM, 1., 2017, Filadélfia. Annals… Filadélfia: University of Pennsylvania, 2017. p. 5-12. Disponível em: Disponível em: https://bit.ly/2GbeyJ2 . Acesso em: 24 set. 2019.
https://bit.ly/2GbeyJ2...
). Não encontramos, entre esses tweets, estratégias de malinformation. Os dados sugerem, assim, que as estratégias de legitimação observadas estão diretamente relacionadas a enquadramentos públicos de discursos de desinformação.
Os dados também sugerem que as affordances dos públicos em rede (BOYD, 2010BOYD, D. Social network sites as networked publics: affordances, dynamics, and implications. In: PAPACHARISSI, Z. (ed.). A networked self: identity, community, and culture on social network sites. Abingdon: Routledge, 2010. p. 39-58.) são essenciais para a difusão dos discursos na mídia social, uma vez que características como a replicabilidade e a escalabilidade são essenciais para que os retweets tenham o impacto que observamos.
6 Conclusões
Este trabalho buscou refletir sobre as estratégias de legitimação dos discursos de um evento de desinformação (a “fraude” nas urnas eletrônicas durante o segundo turno das eleições presidenciais). Para tanto, utilizamos dados obtidos do Twitter no período imediatamente anterior e posterior ao segundo turno. A partir do conjunto de dados original, selecionamos os cinquenta tweets com maior número de retweets, compreendendo a prática do retweet como tentativa de validação (BOYD; GOLDER; LOTAN, 2010BOYD, D.; GOLDER, S.; LOTAN G. Tweet, tweet, retweet: conversational aspects of retweeting on Twitter. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES (HICSS), 43., 2010, Kauai. Annals… Honolulu: University of Hawaii, 2010. p. 1-10. DOI: https://doi.org/10.1109/HICSS.2010.412
https://doi.org/10.1109/HICSS.2010.412...
) que utiliza também estratégias textuais para obter legitimação. Com esses dados em mãos, analisamos os tweets em busca de suas estratégias de legitimação a partir de Van Leeuwen (2007VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
https://doi.org/10.1177/1750481307071986...
). Observamos, assim, que textos revestidos de autoridade pessoal e avaliação moral obtiveram maior sucesso em termos de legitimação em nosso conjunto de dados. Além disso, a autoridade e a racionalização também têm uma presença importante. Esses dados sugerem que há uma grande importância dos chamados líderes de opinião em processos de “lavagem” da desinformação, pois eles passam a ser creditados como as fontes originais do discurso, e dão-lhe credibilidade. Observamos que a mythopoesis e suas narrativas também produzem legitimação para a desinformação, mas através de histórias que possuem papel importante na criação de falsas impressões de consenso (SOON; GOH, 2018SOON, C.; GOH, S. Fake news, false information and more: countering human biases. Queenstown: Institute of Policy Studies, 2018. Disponível em: Disponível em: https://nus.edu/2xCBTiK . Acesso em: 24 set. 2019.
https://nus.edu/2xCBTiK...
), pois “outros” em “todos os lugares, estão relatando as fraudes”. A legitimação desses discursos pode impactar na credibilidade da urna e no próprio processo democrático, pois cria suspeitas a respeito dele.
Outros estudos são necessários para compreender se essas estratégias podem ser ampliadas para outros conjuntos de dados em outros eventos de desinformação. Os resultados apresentados neste trabalho apenas se aplicam a estes dados.
Referências
- ALLCOTT, H.; GENTZKOW, M. Social media and fake news in the 2016 election. Journal of Economic Perspectives, Nashville, v. 31, n. 2, p. 1-28, 2017. DOI: https://doi.org/10.1257/jep.31.2.211
» https://doi.org/10.1257/jep.31.2.211 - AZZIMONTI, M.; FERNANDES, M. Social media networks, fake news and polarization. NBER Working Paper No. 24462, 2018. Disponível em: Disponível em: https://bit.ly/2mZ67Kf Acesso em: 24 set. 2019. DOI: https://doi.org/10.3386/w24462
» https://doi.org/10.3386/w24462» https://bit.ly/2mZ67Kf - BASTOS, M. T.; MERCEA, D. The Brexit botnet and user-generated hyperpartisan news. Social Science Computer Review, Londres, v. 37, n. 1, p. 38-54, 2017. DOI: https://doi.org/10.1177/0894439317734157
» https://doi.org/10.1177/0894439317734157 - BOYD, D. Social network sites as networked publics: affordances, dynamics, and implications. In: PAPACHARISSI, Z. (ed.). A networked self: identity, community, and culture on social network sites. Abingdon: Routledge, 2010. p. 39-58.
- BOYD, D.; GOLDER, S.; LOTAN G. Tweet, tweet, retweet: conversational aspects of retweeting on Twitter. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES (HICSS), 43., 2010, Kauai. Annals… Honolulu: University of Hawaii, 2010. p. 1-10. DOI: https://doi.org/10.1109/HICSS.2010.412
» https://doi.org/10.1109/HICSS.2010.412 - BRASIL. Tribunal Superior Eleitoral. Conheça a história da urna eletrônica brasileira, que completa 18 anos. Tribunal Superior Eleitoral Brasília, 20 jun. 2014. Disponível em: Disponível em: https://bit.ly/2mFJoCK Acesso em: 25 set. 2019.
» https://bit.ly/2mFJoCK - BRASIL. Tribunal Superior Eleitoral. Urna eletrônica: aprovada realização de auditoria em tempo real. Tribunal Superior Eleitoral Brasília, 20 maio 2018. Disponível em: Disponível em: https://bit.ly/2Rof8Hl Acesso em: 26 set. 2019.
» https://bit.ly/2Rof8Hl - BRUNS, A.; BURGESS, J. Crisis Communication in Natural Disasters The Queensland Floods and Christchurch Earthquakes. In: WELLER, K.; BRUNS, A.; BURGESS, J.; MAHRT, M.; PUSCHMANN, C. Twitter and Society Nova York: Peter Lang, 2014. p. 373-384. Disponível em: Disponível em: https://bit.ly/2mpbUsi Acesso em: 24 set. 2019.
» https://bit.ly/2mpbUsi - CARVALHO, L. Como funcionam as urnas eletrônicas de outros países. Olhar Digital, São Paulo, 05 out. 2018. Disponível em: Disponível em: https://bit.ly/2m2rjyO Acesso em: 26 set. 2019.
» https://bit.ly/2m2rjyO - DEARO, G. Urna eletrônica fabricada e controlada pela Venezuela? Entenda o boato. Exame, São Paulo, 24 set. 2018. Disponível em: Disponível em: https://bit.ly/2nindTD Acesso em: 25 set. 2019.
» https://bit.ly/2nindTD - DERAKHSHAN, H.; WARDLE, C. Information disorder: definitions. In: UNDERSTANDING AND ADDRESSING THE DESINFORMATION SYSTEM, 1., 2017, Filadélfia. Annals… Filadélfia: University of Pennsylvania, 2017. p. 5-12. Disponível em: Disponível em: https://bit.ly/2GbeyJ2 Acesso em: 24 set. 2019.
» https://bit.ly/2GbeyJ2 - FAIRCLOUGH, N. Language and power Londres: Longman, 1989.
- FALLIS, D. A conceptual analysis of disinformation. In: I Conference, 2009. Annals… Chicago, Illinois: Ischool, 2009. p. 1-8. Disponível em: Disponível em: https://bit.ly/2mpZhx6 Acesso em: 24 set. 2019.
» https://bit.ly/2mpZhx6 - FARIS, R.; ROBERTS, H.; ETLING, B.; BOURASSA, N.; ZUCKERMAN, E.; BENKLER, Y. Partisanship, propaganda, and disinformation: online media and the 2016 US presidential election. Cambridge: Berkman Klein Center for Internet & Society, 2017.
- GEORGE WASHINGTON UNIVERSITY LIBRARIES. Social Feed Manager 2016. Disponível em: Disponível em: https://bit.ly/2nhqWAI Acesso em: 25 set. 2019.
» https://bit.ly/2nhqWAI - GLOZER, S.; CARUANA, R.; HIBBERT, S. A. The never-ending story: discursive legitimation in social media dialogue. Organization Studies, Londres, v. 40, n. 5, p. 625-650, 2018. DOI: https://doi.org/10.1177/0170840617751006
» https://doi.org/10.1177/0170840617751006 - HALLIDAY, M. Language as social semiotic Londres: Hodder Arnold, 1978.
- LOPES, G. O TSE entregou os códigos de segurança das urnas eletrônicas para a Venezuela? E-Farsas, São Paulo, 18 set. 2018. Disponível em: Disponível em: https://bit.ly/2ngfoOa Acesso em: 25 set. 2019.
» https://bit.ly/2ngfoOa - MARWICK, A.; LEWIS, R. Media manipulation and disinformation online Nova York: Data & Society Research Institute, 2018. Disponível em: Disponível em: https://bit.ly/2qVkRKE Acesso em: 24 set. 2019.
» https://bit.ly/2qVkRKE - MINAS GERAIS. Tribunal Regional Eleitoral. Justiça Eleitoral esclarece boato sobre processamento dos votos na urna antes da tecla confirma. Tribunal Regional Eleitoral-MG Belo Horizonte, 07 out. 2018. Disponível em: Disponível em: https://bit.ly/2OGiC9O Acesso em: 26 set. 2019.
» https://bit.ly/2OGiC9O - MOTA, M.; COUTO, M.; ROCHA, G. Mensagens com conteúdo #FAKE sobre fraude em urnas eletrônicas se espalham nas redes. G1, Rio de Janeiro, 06 out. 2018. Disponível em: Disponível em: https://glo.bo/2PcUgBo Acesso em: 25 set. 2019.
» https://glo.bo/2PcUgBo - NICKERSON, R. Confirmation bias: a ubiquitous phenomenon in many guises. Review of General Psychology, Washington, v. 2, n. 2, p. 175-220, 1998. DOI: https://doi.org/10.1037/1089-2680.2.2.175
» https://doi.org/10.1037/1089-2680.2.2.175 - NYHAN, B.; REIFLER, J. When corrections fail: The persistence of political misperceptions. Political Behaviour, Berlim, v. 32, n. 2, p. 303-330, 2010. DOI: https://doi.org/10.1007/s11109-010-9112-2
» https://doi.org/10.1007/s11109-010-9112-2 - PETERS, M. A. The information wars, fake news and the end of globalisation. Educational Philosophy and Theory, Abingdon-on-Thames, v. 50, n. 13, p. 1161-1164, 2018. DOI: https://doi.org/10.1080/00131857.2017.1417200
» https://doi.org/10.1080/00131857.2017.1417200 - RECUERO, R. Discurso mediado por computador nas redes sociais. In: ARAÚJO, J.; LEFFA, V. (org.). Redes Sociais e Ensino de Línguas: O que temos a aprender? São Paulo: Parábola, 2016. p. 17-32, v. 1.
- SHAO, C.; CIAMPAGLIA, G. L.; VAROL, D.; FLAMMINI, A.; MENCZER, F. The spread of misinformation by social bots. Nature Communications, Ithaca NewYork, v. 9, 4787, 2018. DOI: https://doi.org/10.1038/s41467-018-06930-7. Disponível em: Disponível em: arxiv.org/pdf/1707.07592.pdf Acesso em: 24 set. 2019.
» https://doi.org/10.1038/s41467-018-06930-7» arxiv.org/pdf/1707.07592.pdf - SHU, K.; SILVA, A.; WANG S.; TANG J.; LIU, H. Fake news detection on social media: a data mining perspectiva. Ithaca, NewYork: Arxiv Cornell University, 2017. Disponível em: Disponível em: https://bit.ly/2mRXZuP Acesso em: 24 set. 2019.
» https://bit.ly/2mRXZuP - SOARES, F. B.; RECUERO, R.; ZAGO, G. Influencers in polarized political networks on Twitter. In: INTERNATIONAL CONFERENCE ON SOCIAL MEDIA AND SOCIETY, 9., 2018, Nova York. Proceedings […] Nova York: ACM, 2018. p. 168-177. DOI: https://doi.org/10.1145/3217804.3217909
» https://doi.org/10.1145/3217804.3217909 - SOON, C.; GOH, S. Fake news, false information and more: countering human biases. Queenstown: Institute of Policy Studies, 2018. Disponível em: Disponível em: https://nus.edu/2xCBTiK Acesso em: 24 set. 2019.
» https://nus.edu/2xCBTiK - TANDOC JR., E. C; LIM, Z. W.; LING, R. Defining fake news: a typology of scholarly definitions. Digital Journalism, Abingdon-on-Thames, v. 6, n. 2, p. 137-153, 2017. DOI: https://doi.org/10.1080/21670811.2017.1360143
» https://doi.org/10.1080/21670811.2017.1360143 - VAN LEEUWEN, T. J. Legitimation in discourse and communication. Discourse & Communication, Londres, v. 1, n. 1, p. 91-112, 2007. DOI: https://doi.org/10.1177/1750481307071986
» https://doi.org/10.1177/1750481307071986 - XU, W. W.; SANG, Y.; BLASIOLA, S.; PARK, H. W. Predicting opinion leaders in Twitter activism networks. American Behavioral Scientist, Londres, v. 58, n. 10, p. 1278-1293, 2014. DOI: https://doi.org/10.1177/0002764214527091
» https://doi.org/10.1177/0002764214527091
-
1
O conceito de affordance aqui é utilizado a partir de Boyd (2010, p. 39). De acordo com a autora, compreende “os modos […] através dos quais as pessoas se engajam com esses ambientes” (estruturas tecnológicas). Essas propriedades introduzem, assim, novas formas de interação e participação com a tecnologia.
-
2
O retweet significa a reprodução de um tweet de outra fonte, com ou sem comentário.
-
3
Os tipos de legitimação são apresentados conforme a notação utilizada na sua apresentação original na sessão anterior.
-
4
Os tweets foram apresentados de modo resumido por conta do espaço. No entanto, foram analisados em sua integralidade através das respectivas URL . Além disso, anonimizamos todos os usuários atendendo às recomendações de ética em pesquisa e dados digitais da Association of Internet Researchers - https://aoir.org/ethics/.
-
5
Foram feitas pequenas modificações no texto (notadamente substituição de preposições ou acréscimo de artigos) para impedir a sua localização.
-
6
Cada país utiliza um modelo diferente de urna (CARVALHO, 2018CARVALHO, L. Como funcionam as urnas eletrônicas de outros países. Olhar Digital, São Paulo, 05 out. 2018. Disponível em: Disponível em: https://bit.ly/2m2rjyO . Acesso em: 26 set. 2019.
https://bit.ly/2m2rjyO... ).
Datas de Publicação
-
Publicação nesta coleção
12 Ago 2020 -
Data do Fascículo
Jul-Sep 2020
Histórico
-
Recebido
11 Dez 2018 -
Aceito
29 Ago 2019