Resumo:
Algoritmos podem ser vistos como um novo tipo de instituição nas sociedades contemporâneas, configurando relações de poder e regras que balizam contextos de agência humana. Baseado no conceito de desidentificação, de Jaques Rancière, e de infrapolítica, de James Scott, este artigo explora as possibilidades de resistência cotidiana ao poder dos algoritmos. O artigo reconstrói elementos da interação entre humanos e sistemas computacionais e a forma como algoritmos representam um conjunto de regras que moldam diversos elementos da agência humana. Assim, formas de resistência ao poder dos algoritmos emergem como elementos centrais da política no mundo digital. O artigo examina três formas de resistência por meio de repertórios de práticas sociais emergentes: a anonimização, o engano e a confrontação de sensores e desidentificação de corpos. Com base nesses três tipos de resistência infrapolítica, o artigo teoriza sobre a política dos algoritmos e como humanos jogam com os algoritmos em diferentes situações cotidianas.
Palavras-chave:
algoritmos; desidentificação; infrapolítica; resistência; jogo
Abstract:
Algorithms can be seen as a new type of institution in contemporary societies, configuring power relations and rules that guide contexts of human agency. Based on Jaques Rancière’s concept of disidentification and James Scott’s infrapolitics, this article explores the possibilities of everyday resistance to the power of algorithms. The article reconstructs elements of interaction between humans and computational systems and the way in which algorithms represent a set of rules that shape different elements of human agency. Thus, forms of resistance to the power of algorithms emerge as central elements of politics in the digital world. The article examines three forms of resistance through repertoires of emerging social practices: anonymization, deception and the confrontation of sensors and disidentification of bodies. Based on these three types of infrapolitical resistance, the article theorizes about the politics of algorithms and how humans play with algorithms in different everyday situations.
Keywords:
algorithms; disidentification; infrapolitics; resistance; game
Resumen:
Los algoritmos pueden ser vistos como un nuevo tipo de institución en las sociedades contemporáneas, que configura relaciones de poder y reglas que guían contextos de agencia humana. Basado en el concepto de desidentificación de Jaques Rancière y la infrapolítica de James Scott, este artículo explora las posibilidades de resistencia cotidiana al poder de los algoritmos. El artículo reconstruye elementos de interacción entre humanos y sistemas computacionales y la forma en que los algoritmos representan un conjunto de reglas que dan forma a diferentes elementos de la agencia humana. Así, las formas de resistencia al poder de los algoritmos emergen como elementos centrales de la política en el mundo digital. El artículo examina tres formas de resistencia a través de repertorios de prácticas sociales emergentes: la anonimización, el engaño y la confrontación de sensores y la desidentificación de cuerpos. Basado en estos tres tipos de resistencia infrapolítica, el artículo teoriza sobre la política de los algoritmos y cómo los humanos juegan con los algoritmos en diferentes situaciones cotidianas.
Palabras clave:
algoritmos; desidentificación; infrapolítica; resistencia; juego
Introdução
Algoritmos são um componente chave das sociedades contemporâneas. Por algoritmos, entendemos sequências de instruções ou passos para resolver um problema ou tarefa, e que se configuram como a base de softwares de diferentes naturezas. Algoritmos são empregados em tarefas tão diversas como a classificação e o ranqueamento de itens, a realização de pesquisas, o reconhecimento de padrões e relações, o processamento de textos e imagens e a compressão de dados para citar alguns poucos exemplos. Trata-se de artefatos sociotécnicos, criados a partir de interações entre seres humanos e máquinas e profundamente atravessados pelos contextos socio-históricos de que se originaram e onde operam, bem como pelas intenções daqueles e daquelas que os projetaram, muito embora seu funcionamento e suas consequências concretas não se resumam às intenções e valores entranhados em suas origens. Isso fica evidente, por exemplo, em aplicações de machine learning, cujos algoritmos aprendem com exemplos, dados e experiência decisória, assumindo rotas não plenamente antecipáveis, ainda que logicamente compreensíveis (Mendonça; Filgueiras; Almeida, 2023).
Algoritmos estão inseridos em uma infinidade de decisões, organizando interações entre humanos e máquinas em sistemas complexos formados por diversas camadas. Eles balizam aquilo que potencialmente se vê, o modo como cidadãos são tratados por uma seguradora, quem é contratado ou não por determinada empresa, o alcance das sentenças nos tribunais e até mesmo os horários de trabalho em algumas empresas. Para desempenhar seu papel nesses sistemas complexos de tomada de decisão, os algoritmos precisam entender quem as pessoas são, quais as suas escolhas prováveis, como se sentem e o que desejam.
Essa compreensão é, no entanto, mais do que uma compreensão distante e envolve uma forma de definição que retroage sobre os comportamentos de cada um. Em sua necessidade de entender os humanos, os algoritmos definem e reificam os indivíduos em determinadas posições pré-configuradas em função de modelos baseados em clusters, classificações e hierarquias para a construção de perfis. Aplicados em diferentes áreas da vida cotidiana, algoritmos constroem perfis humanos com base na coleta de dados que informam comportamentos passados e projetam preferências presentes e futuras. Em diferentes situações de ação, no entanto, humanos jogam de acordo com as regras que orientam a construção de algoritmos, afetando assim a capacidade de eles identificarem indivíduos. Muitas vezes, os sujeitos fogem das tentativas de definição, confundindo e prejudicando o trabalho dos processos de identificação. Eles jogam com algoritmos, usando-os de maneiras que superam os comportamentos esperados. Tais ações podem ser pensadas como uma forma contemporânea de microrresistência.
Este artigo argumenta que algumas formas de resistência ao poder dos algoritmos podem ser compreendidas através da ideia de desidentificação concebida por Jacques Rancière. Essas tentativas de desidentificação representam expressões relevantes da infrapolítica (Scott, 1990) no mundo contemporâneo. Fugir de uma persona fixa e enganar algoritmos depende do desenvolvimento de hidden transcripts, que obstruem o exercício do poder opaco dos algoritmos. Este artigo busca elaborar esse argumento, mobilizando exemplos contemporâneos sobre como humanos e máquinas interagem para ilustrar a infrapolítica da desidentificação em sociedades algorítmicas. Se a ideia de gaming é, muitas vezes, entendida como moralmente problemática, discutimos como ela oferece maneiras para enfrentar o poder das plataformas algorítmicas, apesar da enorme assimetria aí envolvida (Petre; Duffy; Hund, 2019).
O artigo está estruturado em três partes. Na primeira, discutem-se os algoritmos e seu poder, afirmando que uma compreensão adequada desse poder requer entender como os algoritmos definem os indivíduos e os localizam nas posições estabelecidas. A segunda parte apresenta as noções de desidentificação e infrapolítica. Por fim, o artigo explora algumas ilustrações contemporâneas do repertório de práticas por meio das quais os indivíduos buscam enganar o poder dos algoritmos em defini-los.
O poder dos algoritmos
Os algoritmos representam uma importante fonte de poder nas sociedades contemporâneas. Por meio deles, corporações e Estados coletam dados, produzem simulações, endereçam grupos de pessoas de formas variadas e tomam decisões muitas vezes vistas como meramente técnicas, abstratas ou sistêmicas, como se não fossem geradas por artefatos sociotécnicos profundamente marcados pelas assimetrias existentes e pelos valores daqueles que se beneficiam de tais artefatos (Cobbe, 2021). Algoritmos desempenham papéis cada vez maiores em muitas áreas da vida social, abrangendo desde questões de segurança até mobilidade urbana, recursos humanos ou decisões de compra. Algoritmos estão no cerne da maioria das sociedades contemporâneas com profundas implicações econômicas, sociais, políticas e subjetivas.
Algoritmos não são algo novo. Os seres humanos sempre criaram conjuntos de instruções para lidar com problemas e realizar tarefas. Planejar as ações necessárias para atingir um objetivo - geralmente incorporando feedback de tentativas e etapas anteriores - é uma dinâmica central na racionalidade humana (Newell; Simon, 1976). Construímos modelos para lidar com situações semelhantes e aprendemos com nossas experiências, tornando nossos modelos mais complexos (Samuel, 1962). Os algoritmos, no entanto, tornaram-se muito mais complexos e onipresentes em nossas sociedades baseadas em dados. Geramos, armazenamos e processamos continuamente grandes quantidades de dados, usando-os para automatizar decisões que afetam nossas experiências mais comuns (Kitchin, 2014).
Muitos cidadãos compreendem o papel que os algoritmos desempenham na vida cotidiana pensando em feeds de mídia social, anúncios comerciais direcionados e recomendações em serviços de streaming. Mas os algoritmos têm muitas outras aplicações. Pense, por exemplo, nas plataformas de encontros, que são baseadas em algoritmos que precisam conhecer alguém bem o suficiente para sugerir possíveis parceiros que possam ser de seu interesse, e considerar se o interesse pode ser recíproco. O céu é o limite para fazer essas projeções: “Olhando para o futuro, um relatório da eHarmony projeta que as próximas décadas poderão ver algoritmos integrados com dados de DNA e a Internet das Coisas para fornecer recomendações mais personalizadas” (Deli et al., 2015 apudSharabi, 2022, p. 8, tradução nossa).
Outro exemplo é o uso de algoritmos para contratar funcionários ou para organizar a escala de trabalhadores. O’Neil (2016) mostra como esses cálculos automatizados tornaram-se difundidos na decisão de quem consegue um emprego e como os indivíduos viverão suas vidas. Investigando algoritmos empregados para planejar o horário dos trabalhadores, ela mostra como horários irregulares e imprevisíveis decorrem do processamento de enormes quantidades de dados que visam maximizar a eficiência do trabalho. “As condições mudam de hora em hora e a força de trabalho deve ser implantada para atender à demanda flutuante” (O’Neil, 2016, p. 108, tradução nossa). Com agendas caóticas, os trabalhadores sofrem para organizar suas vidas e planejar coisas básicas como cuidar dos filhos e, eventualmente, um segundo emprego.
Uma terceira ilustração digna de menção é o uso de algoritmos para orientar as decisões no sistema de saúde. Obermeyer et al. (2019) mostraram como o sistema desenvolvido pela Optum e empregado por alguns hospitais tomava os gastos com saúde como equivalentes às necessidades de tratamento, e acabava subestimando a gravidade das condições de saúde dos negros, já que menos dinheiro era gasto com eles. Constatou-se que “os negros tinham que estar mais doentes do que os brancos antes de serem encaminhados para ajuda adicional” (Ledford, 2019, p. 608, tradução nossa). A racionalização algorítmica reproduzia, assim, desigualdades sociais, cristalizando relações de poder que sustentam o racismo estrutural.
Esses poucos exemplos mostram a difusão e o poder dos algoritmos no mundo contemporâneo. Ou, melhor dizendo, os exemplos mostram como os algoritmos estruturam relações de poder no contemporâneo, alimentando assimetrias e beneficiando alguns atores em detrimento de outros. Este poder é complexo. Deriva da capacidade dos algoritmos de afetar, como instituições políticas, os comportamentos dos indivíduos, moldando assim resultados coletivos mais amplos (Almeida; Filgueiras; Mendonça, 2022; Mendonça; Filgueiras; Almeida, 2023). Em muitas situações, os algoritmos podem ser concebidos para assumir papéis institucionais na sociedade, com implicações diretas na automatização da democracia através da previsão das preferências dos cidadãos, do desenho das suas escolhas políticas, ou mesmo alterando a forma como a representação política é exercida (Burgess, 2022). No entanto, os algoritmos geralmente operam de maneiras opacas que não são totalmente compreendidas ou percebidas pelos cidadãos comuns, desafiando a própria noção de sociedade democrática. Eles estão de alguma forma no pano de fundo das arenas de interação e dos processos de tomada de decisão, moldando os contextos de ação de maneiras tácitas. Eles não dão a ver, mais claramente, quem se beneficia e quem é prejudicado por decisões específicas, nem os valores e as gramáticas neles embutidos sob o véu da objetividade técnica que frequentemente os legitima.
O poder dos algoritmos (ou, mais precisamente, dos atores que deles se beneficiam) geralmente manifesta-se em sua tendência inerente de reproduzir o passado. Os algoritmos dependem de dados existentes de interações passadas para mensurar preferências supostamente satisfatórias e cursos de ação de indivíduos para o futuro, com base em suas preferências (Simon, 1996). Preferências estão no cerne de algoritmos de inteligência artificial uma vez que elas possibilitam mensurar diversos aspectos da agência humana para convertê-los na agência da máquina (Russell, 2019). Eles calculam as probabilidades futuras com base no que já existe e, com isso, acabam cristalizando (e reforçando) algumas dimensões do status quo ou simplesmente reproduzindo ou aprofundando desigualdades estruturais. Os dados informam diferentes aspectos da vida dos indivíduos e os modelos que definem os scripts dos algoritmos permitem agrupar os indivíduos, criando novas assimetrias sociais ou reiterando as existentes (Joyce et al., 2021).
Para deixar isso mais claro, pense nas ilustrações mencionadas anteriormente. Primeiro, as plataformas de encontro “empregam algoritmos que geram correspondências com base nas preferências pessoais anteriores dos usuários e no histórico de correspondência de pessoas semelhantes” (Lau; Akkaraju, 2019, tradução nossa). Em segundo lugar, os algoritmos de contratação geralmente baseiam suas escolhas em experiências anteriores, fatores ou testes realizados com dados diversos por um candidato em potencial. Eles podem correlacionar, por exemplo, pontuações ruins de crédito com irresponsabilidade e alimentar uma espiral descendente, reforçando o desemprego e a pobreza (O’Neill, 2016, p. 14). E a terceira ilustração mostra claramente como a desigualdade racial levou à injustiça racial, acrescentando insulto à injúria. Algoritmos “eficientes” para racionalizar diversos aspectos da vida humana podem, portanto, reforçar injustiças atuais (Noble, 2018). A medição da eficiência reitera uma lógica de custo-benefício do desenho da aplicação ou uma racionalidade utilitária, que nem sempre encontra uma lógica de adequação ou se orienta para valores sociais ou critérios de justiça (Filgueiras, 2022).
O poder dos algoritmos também é evidente na forma como são usados. Muitas vezes, eles são empregados sob a justificativa de que tomarão decisões impessoais e mais objetivas. Com base nos inputs de grandes volumes de dados, os algoritmos são vistos como mecanismos de tomada de decisão eficientes e justos, pois formulam evidências para a ação pública. Algoritmos são, no entanto, projetados por humanos, que são orientados por valores e fazem as escolhas do que deve ser considerado em uma decisão, levando em consideração interesses de grupos, corporações ou governos para os quais trabalham. Por serem vendidos como “objetivos” e “justos” - e por serem geralmente protegidos do escrutínio externo - raramente são questionados.
Outra camada do poder dos algoritmos é de particular interesse para este artigo. Está claro que definir indivíduos com precisão e situá-los em clusters é uma dimensão fundamental na forma como o poder dos algoritmos é exercido. Nas sociedades contemporâneas, indivíduos tornam-se data points. “Juntos ou analisados separadamente, esses pontos de dados constituem uma nova identidade virtual, um eu digital que agora é mais tangível, autoritário e demonstrável, mais fixo e comprovável do que nossos eus analógicos” (Harcourt, 2015, p. 1, tradução nossa). Nesse sentido, “somos classificados, categorizados e pontuados em centenas de modelos, com base em nossas preferências e padrões revelados” (O’Neil, 2016, p. 63, tradução nossa). Ao fazer isso, os algoritmos tendem a reforçar as preferências atuais de indivíduos, valores e práticas sociais.
Para ser mais claro, os algoritmos trabalham para certos atores para mapear e entender quem somos, quais são nossas preferências, desejos, gostos e necessidades. Eles consideram muitas variáveis para saber quem “realmente” somos e usam essas informações para produzir modelos que preveem ação humana, orientando a tomada de decisão sobre vários aspectos da sociedade. Algoritmos, como instituições, estruturam uma teia complexa de relações de poder. A partir dos algoritmos, relações de poder são moldadas para atingir um determinado propósito. Eles precisam nos conhecer razoavelmente bem para tomar decisões e, portanto, contribuem para definir quem nós poderíamos ser.
Nosso eu e nossa subjetividade - a própria subjetividade que abrange os aplicativos, plataformas e dispositivos digitais - são moldados pelos algoritmos de recomendação e sugestões direcionadas de varejistas, ofertas especiais de anunciantes, pontos de discussão não solicitados de partidos políticos e candidatos (Harcourt, 2015, p. 14, tradução nossa).
Essa necessidade de conhecer/definir os indivíduos representa um tipo específico de mediação computacional que permeia o infinito devir humano (Alves, 2021; Asenbaum, 2021).5 Os algoritmos tendem a reforçar nossas escolhas, concepções, valores, experiências e autocompreensões anteriores. Eles tendem a promover um devir que paradoxalmente cristaliza e reforça quem (eles entendem que) nós somos.
A infrapolítica da desidentificação
Apesar da magnitude e difusão do poder dos algoritmos, há tentativas de resistir (ou ressignificar) a forma como esse poder opera (Alnemr, 2021). Tais tentativas vão desde esforços organizados para exercer influência na governança de plataformas digitais até práticas cotidianas que enganam algoritmos e frustram a precisão deles. Mesmo que muitas vezes negligenciemos os perigos envolvidos em nossas interações cotidianas por meio de interfaces técnicas (Harcourt, 2015), há uma consciência crescente dos impactos das tecnologias na vida social e política.
A literatura tem levantado várias consequências políticas que as diferentes tecnologias digitais têm na sociedade. Aplicadas em diferentes soluções para políticas urbanas, as tecnologias digitais reforçam, como vimos, desigualdades existentes, especialmente de raça, gênero e classe, criando zonas de exclusão por meio de tecnologias (Eubanks, 2018; Noble, 2018). As tecnologias baseadas em dados também reforçam o discurso de ódio e criam dinâmicas de polarização política que ameaçam o funcionamento dos regimes políticos democráticos e afetam os direitos humanos (Donahoe; Metzger, 2019; Feldstein, 2019). Ademais, as tecnologias baseadas em dados reforçam novas dinâmicas coloniais que afetam o funcionamento dos regimes políticos, especialmente nos países em desenvolvimento (Couldry; Mejias, 2019). Os danos algorítmicos, como viés ou injustiça, tornaram-se objeto de resistência por grupos sociais e por grandes empresas de tecnologia, que são os principais causadores dos danos algorítmicos. Ganesh e Moss (2022) fazem distinção entre duas variedades de respostas aos danos algorítmicos. Uma diz respeito às ações que as grandes empresas de tecnologia têm realizado, visando mostrar como o desenvolvimento tecnológico é capaz de minimizar vieses e discriminação. Outra categoria de resistência engloba as recusas que surgem na sociedade, como anonimato e criptografia. São recusas que buscam construir uma vida fora do âmbito dos danos causados por sistemas algorítmicos. Finalmente, um importante corpo de literatura demonstra que os algoritmos de inteligência artificial mudam a dinâmica da guerra e ampliam as assimetrias internacionais (Crootof, 2016; Scharre, 2018).
Se os estudos existentes foram frutíferos em mostrar os impactos políticos dos algoritmos incorporados em diferentes tecnologias baseadas em dados, há uma lacuna em relação às maneiras pelas quais os humanos resistem ao poder dos algoritmos, muito embora surja uma pujante literatura nessa direção (Arubayi, 2021; Bonini; Treré, 2024; Cobbe, 2021; Pereira et al, 2022; Ramizo, 2022). Como aponta Alnemr (2021), é preciso avançar na identificação de práticas capazes de defender a esfera pública de danos algorítmicos. Velkova e Kaun (2021, p. 524, tradução nossa) também argumentam que “a agência do usuário é frequentemente negligenciada na discussão emergente das consequências da cultura algorítmica, que está cada vez mais envolta em uma narrativa de drama”. Esta agenda é essencial porque, como destaca Cobbe (2021, p. 757) ao retomar Foucault e Deleuze: “a resistência é parte de qualquer dispositivo de relações de poder”.
Neste artigo, estamos particularmente interessados nas formas de resistência que fazem parte do que James Scott chama de infrapolítica.Scott (1990) argumenta que a manifestação pública de oposição é uma exceção histórica. Na maioria das vezes, a punição pela expressão de dissidência é tão severa e perigosa que os indivíduos não têm outra escolha a não ser resistir de maneiras menos visíveis e claras. Analisando contextos de escravidão e colonialismo, por exemplo, Scott identifica uma série de hidden transcripts, que são utilizados pelos grupos oprimidos e não são percebidos por aqueles que os oprimem. Esses hidden transcripts geralmente envolvem rumores, fofocas, cânticos, piadas, gestos, sinais, atos de sabotagem e até idiomas específicos. Os hidden transcripts são expressões significativas voltadas para públicos específicos; eles decodificam os atos de transgressão nas entrelinhas do comportamento publicamente apropriado.
Esses hidden transcripts alimentam uma infrapolítica, que está além do estágio de visibilidade. Segundo Scott, a infrapolítica envolve uma dimensão tática derivada da prudência. Apesar de sua natureza oculta, Scott percebe, no entanto, que a infrapolítica não é algo que corre em paralelo com a política mais ampla. Ela fornece fundamentos para as formas mais visíveis de política. Seria, portanto, enganoso subestimar o poder dessas formas táticas de resistência. Elas incorporam potenciais transformadores em contextos nos quais o confronto direto é muito difícil ou muito perigoso. Essas formas ocultas de desafio podem ter consequências de longo prazo.
Michel de Certeau (1984) também dedicou atenção às artes de resistência que permeiam a vida cotidiana. De Certeau argumenta que as práticas cotidianas - como cozinhar, caminhar e ler - estão repletas de potenciais criativos. Os indivíduos reinventam as estruturas e os materiais com os quais interagem, quando os utilizam e os apropriam. Caminhando pela cidade, por exemplo, é possível reformular os percursos e caminhos traçados, criando roteiros inovadores. Mesmo que a cidade seja planejada por instituições e corporações, o caminhante insiste em recriar o plano da cidade de formas que não estão completamente previstas. Gambiarras também podem ser vistas como práticas criativas do cotidiano, com potencial de reinventar usos, funções e dinâmicas de objetos, servindo a propósitos diversos, inclusive em face da escassez de recursos (Assunção; Mendonça, 2016; Boufleur, 2006). Especificamente no campo das tecnologias, Rosas (2008, p. 20) faz instigante apropriação do termo ao abordar “a recombinação tecnológica pelo reuso ou novo uso de uma dada tecnologia”.
De Certeau concebe essas práticas comuns de resistência como movimentos táticos. Enquanto o poder é frequentemente associado à capacidade estratégica de planejar e organizar o espaço, de circunscrever um lugar como próprio e enquadrar contextos de relações, os movimentos táticos são de certa forma mais imprevisíveis. As artes dos fracos residem na sua capacidade de aproveitar a oportunidade para reinventar e desafiar as estruturas existentes. Eles lidam com o tempo, mais do que com o espaço.
Essas ideias são úteis se concebermos muitas das práticas usadas para confrontar o poder dos algoritmos. Os algoritmos operam na dimensão estratégica discutida por De Certeau. Eles são mecanismos racionalizadores que enquadram contextos de interação, estabelecendo os limites da agência em muitas situações diferentes da vida. Em muitas circunstâncias, os algoritmos funcionam como instituições dentro de uma ordem política (Almeida; Filgueiras; Mendonça, 2022). O institucionalismo deixa claro como instituições organizam identidades (Scott, 2014) e estabelecem comportamentos apropriados (March; Olsen, 2009; Mendonça, Filgueiras; Almeida, 2023). Como instituições da sociedade contemporânea, os algoritmos contribuem para definir identidades de pessoas e para influenciar os comportamentos apropriados delas em diversas arenas de interação.
Na dimensão infrapolítica, porém, o mundo digital assiste ao surgimento de ações de resistência e protesto contra essa ordem política dos algoritmos. Para ficarmos próximos do exemplo de March. Certeau, podemos destacar como os algoritmos de plataformas como Google Maps ou Waze desempenham um papel fundamental na construção da cidade, ao organizarem seus fluxos e estruturas dinâmicas. Os indivíduos podem, no entanto, usar essas estruturas de maneiras inovadoras e criativas. Frequentemente escolhem caminhos diferentes ou ignoram as recomendações. Eles cometem erros, que podem confundir algoritmos. Fazem movimentos proibidos que criam atalhos inexistentes e podem preferir ruas mais movimentadas para ver a fachada de um belo prédio.
Os indivíduos também podem jogar intencionalmente com algoritmos. Um exemplo famoso a esse respeito é a performance do artista Simon Weckert, que puxou um carrinho com 99 smartphones nas ruas de Berlim para enganar os algoritmos do Google, produzindo artificialmente um engarrafamento que não existia (Barrett, 2020). A performance de Weckert jogou com os algoritmos para lançar luz sobre como eles funcionam e como eles influenciam a maneira como experimentamos a cidade. Ele manipulou os algoritmos, entendendo como eles operavam para promover um resultado específico.
Indivíduos jogam com algoritmos diariamente. Isso faz parte dos hidden transcripts que constituem a infrapolítica da vida cotidiana e desafiam o funcionamento institucional dos algoritmos. Taticamente, os indivíduos aprendem que certos comportamentos em certos contextos podem promover certos resultados ou, pelo menos, evitar outros. Essas reações contra as regras do jogo fazem parte da infrapolítica da vida cotidiana, a qual, além de protestos, inclui tentativas de contornar os algoritmos (Alnemr, 2021). Os sujeitos podem jogar com algoritmos para desafiar as identidades estabelecidas pelos algoritmos e os comportamentos apropriados esperados.
Desidentificação contra a polícia algorítmica
Entre as muitas possibilidades de jogos com algoritmos na infrapolítica das resistências ordinárias, argumentamos que as táticas de desidentificação desempenham um papel fundamental. A noção de desidentificação está no cerne do quadro político de Jacques Rancière (1999). Segundo Rancière, a política
é aquela atividade que gira em torno da igualdade como seu princípio. E o princípio da igualdade é transformado pela distribuição das cotas da comunidade definida por um dilema: quando há e quando não há igualdade nas coisas entre quem e quem mais? O que são essas “coisas” e quem são esses quem? Como a igualdade passa a consistir em igualdade e desigualdade? Esse é o dilema próprio da política (Rancière, 1999, p. ix).
A política, para ele, surge então das tentativas de promover o princípio da igualdade, ao mostrar a existência de um dano na forma como as sociedades distribuem suas cotas. Para Rancière, a política existe em contraste com a polícia, que não se limita às instituições de coerção, mas abrange a concepção mais ampla de ordem e organização da comunidade política. A polícia é uma ordem de corpos e modos de ser. Em contraste, Rancière define a política como as rupturas nessas ordens estabelecidas. A política surge na tentativa de reconfigurar a forma como as sociedades organizam-se e distribuem suas ações. Ela envolve um processo de transformação no qual suas partes tornam-se outra coisa. Não se trata apenas de uma luta entre identidades pré-estabelecidas, mas, sim, de um processo transformador que se vincula à mudança dessas identidades em um processo que desafia os pressupostos utilizados para distribuir suas partes: “A atividade política é tudo o que desloca um corpo do lugar que lhe foi atribuído ou muda o destino de um lugar. Torna visível o que não devia ser visto, e faz ouvir um discurso onde outrora só havia lugar para ruído” (Rancière, 1999, p. 29).
É nesse contexto que Rancière desenvolve sua noção de desidentificação. A política do devir que ele propõe (Asenbaum, 2021; Marques; Mendonça, 2018) parte da ideia de que as transformações subjetivas no seio dos processos políticos envolvem uma forma de deslocamento em que os atores sociais recusam os lugares antes reservados a eles: “Toda subjetivação é uma desidentificação, um afastamento da naturalidade de um lugar, a abertura de um espaço sujeito onde todos podem ser contados, pois é o espaço onde se contam os que não contam, onde se faz uma ligação entre ter parte e não tendo parte” (Rancière, 1999, p. 36). A desidentificação muda não apenas um ator, mas os contextos em que esse ator interage. Ela afeta o palco e o alcance do que pode ser dito e visto.
Voltemos agora aos algoritmos. Como explorado, eles trabalham com a constante identificação e formação de perfis, para que possam influenciar o comportamento dos atores na sociedade, em diferentes campos da vida cotidiana. Eles identificam e trabalham seus propósitos de acordo com dados obtidos por crescentes mecanismos de vigilância (Marx, 2016; Zuboff, 2019). Se os algoritmos representam instituições que organizam uma ordem política, eles estão na dimensão policial do quadro heurístico de Rancière. As reações contra essa ordem algorítmica exigem desidentificação e hidden transcripts que confundem e desafiam os algoritmos.
Nosso argumento é que uma forma relevante de resistência ao poder dos algoritmos emerge das tentativas de desidentificação.6 Ao negar a naturalidade de um lugar atribuído a si mesmo, pode-se resistir ao poder dos algoritmos. Se o poder dos algoritmos está fortemente ligado à sua capacidade de definir os indivíduos e de alimentar uma realidade a partir dessas definições, a desidentificação surge como uma poderosa arma dos fracos, nas palavras de Scott. Incorporadas na vida cotidiana, as táticas de desidentificação não são uma forma coletivamente organizada de resistência. Elas operam de maneira bastante sutil, aproveitando a oportunidade para se manifestar. Elas permeiam diferentes formas de agenciamento humano nas quais os indivíduos recusam a possibilidade de serem conhecidos.7 A desidentificação está embutida em muitas práticas por meio das quais sujeitos jogam com algoritmos.
Pode-se contra-argumentar que essas pequenas ações individualizadas são irrelevantes diante do escopo e da magnitude do poder representado pelos algoritmos. Até porque, grande parte das pessoas não procura resistir à vigilância pervasiva das coletas de dados algorítmicas, mas consente em tornar-se identificável e transparente a sistemas algorítmicos para se beneficiar das “recompensas”, que podem ser desde um desconto no supermercado até os bônus derivados da visibilidade performática cotidiana nas redes sociais em tempos de superexposição de si.8 Poucas pessoas têm consciência das consequências da automatização do cotidiano em curso, e as ações daquelas que se preocupam com isso parecem ações pequeninas e inócuas em face do poder dos algoritmos e das corporações e estados que os utilizam. Esse é, no entanto, o argumento a que Scott (2008) procurou se opor ao discutir as armas dos fracos. Em situações extremamente assimétricas, essas minúsculas, possíveis e ocultas formas de resistência podem gerar consequências reais. Podem ter um impacto político agregado, afetando o palco comum em que continuamente construímos a realidade. Elas permanecem como armas dos fracos, mas representam possíveis formas de resistência que perduram no tecido social da vida cotidiana.
O repertório da desidentificação
Até agora, argumentamos que o poder dos algoritmos está fortemente relacionado à sua capacidade de conhecer os humanos que interagem com eles. Essa definição é continuamente atualizada para que os algoritmos possam seguir nossa natureza inconstante para calibrar suas decisões. O “saber” é, no entanto, também um processo de definição em que os algoritmos desempenham um papel no estabelecimento de quem somos. Também argumentamos que os processos de desidentificação podem ser pensados, em certos contextos, como formas pelas quais os indivíduos resistem ao poder exercido algoritmicamente. Ao se recusarem a ser reconhecidos e definidos, os indivíduos podem, de alguma forma, enganar os algoritmos e mitigar as implicações heterônomas de sua agência. A desidentificação é uma arma dos fracos que permeia as práticas cotidianas da infrapolítica.9
Nesta seção, daremos corpo ao argumento abstrato construído até agora. Ilustraremos algumas das práticas do repertório contemporâneo de desidentificação diante dos algoritmos. A ideia de repertório é emprestada de Tilly (1978) e refere-se ao conjunto de estratégias e táticas empregadas por atores em suas lutas políticas. Tilly investigou o processo histórico de mudança na dinâmica de contenção para identificar a emergência de movimentos sociais e suas performances cosmopolitas e modulares de confronto. Os repertórios são como o kit de ferramentas disponível em um determinado momento histórico para os atores críticos nas lutas políticas. Neste artigo, focamos, especificamente, nas práticas deste kit que estão relacionadas com a desidentificação na ordem algorítmica. Mergulhamos, portanto, no repertório dos processos de desidentificação para entender como os indivíduos têm lutado contra as tentativas de torná-los conhecidos e definidos.
Anonimização
A anonimização é a primeira tática frequentemente adotada pelos indivíduos para ocultar suas identidades no mundo digital. A anonimização permite que indivíduos reajam a sistemas de vigilância que apoiam o trabalho de algoritmos. Envolve uma ampla gama de ações que permitem aos indivíduos desempenharem uma identidade diferente. De acordo com Asenbaum (2018, p. 462, tradução nossa):
O anonimato é uma performance de identidade dependente do contexto que expressa sentimentos privados na esfera pública, negando alguns aspectos da persona legalmente identificada e/ou fisicamente incorporada. Em contraste com as definições anteriores, [essa definição] prioriza os aspectos criativos e construtivos do anonimato, sem negligenciar seus aspectos de ocultação e negação.
A anonimização, portanto, simultaneamente oculta alguns traços do indivíduo em uma performance identitária que recoloca esse indivíduo, negando a simples ocupação de uma posição identitária pré-estabelecida.
Para permanecer parcialmente anônimos, os indivíduos podem usar navegadores no modo anônimo, restringindo a coleta de dados. No modo anônimo, o histórico de pesquisa, os cookies e as informações de preenchimento automático são desativados. Da mesma forma, os indivíduos podem recusar o uso de cookies ou excluir arquivos temporários, dificultando os algoritmos para criar um perfil personalizado. Há, contudo, muitos limites nessa estratégia, o que se deve não apenas à falta de clareza e interesse de usuários em controlar sua exposição, mas também aos limites dessa suposta privacidade gerada pelo uso de navegadores em modo anônimo. Em 2022, por exemplo, o procurador-geral do Texas, Ken Paxton, acusou a Alphabet de enganar as pessoas e seguir coletando vários dados pessoais no modo incógnito.
Outra forma de anonimização é o uso da dark web para escapar das restrições impostas por algoritmos de plataformas ou diferentes interfaces digitais que estruturam a relação entre humanos e máquinas. O conteúdo na dark web não é indexado por mecanismos de pesquisa padrão. Portanto, não pode ser identificado por padrões comumente usados por IPs ou outras identidades digitais:
As camadas da Internet vão muito além do conteúdo superficial que muitos podem acessar facilmente em suas buscas diárias. O outro conteúdo é o da Deep Web, conteúdo que não foi indexado por motores de busca tradicionais, como o Google. Os cantos mais distantes da Deep Web, segmentos conhecidos como Dark Web, contêm conteúdo que foi intencionalmente ocultado. A Dark Web pode ser usada para fins legítimos, bem como para ocultar atividades criminosas ou maliciosas. [...] Os indivíduos podem acessar a Dark Web usando software especial, como o Tor (abreviação de The Onion Router). O Tor depende de uma rede de computadores voluntários para encaminhar o tráfego da web dos usuários através de uma série de outros computadores, de forma que o tráfego não possa ser rastreado até o usuário original (Finklea, 2017, p. i, tradução nossa).
Na dark web, o conteúdo não pode ser atribuído ao seu autor, permitindo significativa desidentificação. Assim como no andarilho urbano de Finkel Certeau (1984), os indivíduos podem usar rotas alternativas para criar suas formas comuns de resistência. Em um estudo etnográfico, Robert Gehl (2016) mostra que, na dark web, os indivíduos são desidentificados e podem vivenciar situações relacionadas a diversos tabus sociais - como a pornografia ou a zoofilia. Indivíduos não identificados na dark web também podem experimentar a liberdade com relação a todas as formas de regulação estatal. A dark web impede que outros algoritmos identifiquem, monitorem e vigiem indivíduos. A desidentificação proporcionada pela navegação da dark web também possibilita reagir e organizar movimentos políticos contrários a organizações políticas em alguns contextos. Estudos mostram, por exemplo, que o Jihad organiza diferentes sites na dark web para mobilizar membros e compartilhar conteúdos, defendendo, sobretudo, outra forma de organização social (Chen et al., 2008).
Por fim, a criptografia pode ser um importante repertório de desidentificação para a produção de anonimato. Criptografia é um tema antigo na política, antes mesmo da existência de computadores (West, 2022). É um instrumento largamente utilizado por governos para o controle da informação e estabelecimento de relações externas, normalmente associado com uma concepção militar de informação (Monsees, 2019). Entretanto, desde o Wikileaks, esta é uma prática que vem se ampliando no âmbito da sociedade, em particular entre membros da sociedade civil (Monsees, 2019). Gradativamente, o recurso à criptografia vem se tornando prática para a troca de informações entre ativistas. A criptografia também vem sendo implementada, na sociedade, em aplicativos de mensagens como o Whatsapp, com o objetivo de anonimização e privacidade das trocas de mensagens entre usuários, ainda que, uma vez no celular, as mensagens sejam armazenadas de modo não criptografado. A extensão das práticas de criptografia para a sociedade tensiona a ideia de uma internet aberta, fazendo com que se torne um repertório de práticas comuns oferecidas por corporações e incentivadas como mecanismo de proteção da privacidade.
Engano
Circular pelas sombras dos navegadores anônimos e da dark web e utilizar criptografia não são, no entanto, as únicas e principais forma de dificultar a operação de algoritmos. Uma tática central de confronto envolve enganar algoritmos. Conforme argumentado por Velkova e Kaun (2021, p. 526, tradução nossa), “os usuários não são observadores passivos […] na política algorítmica da atenção”. Cotidianamente, e por razões diversas, eles jogam com os algoritmos.
Isso fica claro, por exemplo, quando os indivíduos optam por soletrar as palavras de maneira diferente para evitar respostas automatizadas que podem variar de censura a respostas desagradáveis. Mendonça, Abreu e Sarmento (2021) investigaram como aqueles que se opunham ao presidente Bolsonaro no Brasil começaram a se referir a ele com outras palavras que lembravam seu nome, mas que não podiam ser identificadas por algoritmos. Escrever com pontos entre as letras ou com números no meio de algumas palavras é uma estratégia frequente para ficar fora dos radares, evitando a identificação completa. Alnemr (2021) percebe essa estratégia na tentativa dos palestinos de driblar a censura. Ela também chama a atenção para o uso de imagens metafóricas que não poderiam ser facilmente lidas por algoritmos (Alnemr, 2021, p. 16):
Muitos palestinos, por exemplo, usam o emoji de melancia em vez de usar o emoji da bandeira palestina. As melancias são particularmente simbólicas porque têm as mesmas cores da bandeira palestina e são cultivadas no norte da Faixa de Gaza. A postagem de emojis de melancia foi usada para evitar a vigilância israelense e manipular os algoritmos que derrubam postagens que protestam contra ameaças de despejo em Jerusalém Oriental (Berger, 2021; Gebeily, 2021).
Cobbe (2021, p. 759) menciona como exemplos de resistência cotidiana a algoritmos o uso de fontes obscuras e textos escritos ao contrário por seguidores da teoria da conspiração Qanon, bem como a alteração de imagens por usuários do WeChat na China de modo a evitar detecção algorítmica. O engano também é claro quando os indivíduos fingem ter gostado de algo ou vão intencionalmente atrás de algo que não gostam apenas para confundir os algoritmos sobre os seus interesses e gostos reais. Quando se avalia um filme aleatoriamente, ao invés de realmente expressar sua opinião, torna-se mais difícil para o algoritmo daquela plataforma reconhecer e definir “quem” alguém realmente é, abrindo espaço para felizes acidentes em sugestões futuras.
Alguns desses enganos podem ser considerados formas de manipulação. A manipulação algorítmica compreende situações nas quais os indivíduos sabem como um algoritmo opera e reagem intencionalmente alterando os fluxos de entrada de informações para alterar, por sua vez, os fluxos de saída. “Assim como os algoritmos estudam o comportamento do usuário para promover interesses comerciais, os usuários estudam o comportamento algorítmico para promover seus próprios interesses” (Velkova; Kaun, 2021, p. 527, tradução nossa). Sabendo como os algoritmos decidem, os indivíduos podem manipular os fluxos de entrada de dados para alterar os resultados e, assim, permitir a desidentificação. Indivíduos podem propositadamente fornecer entradas de dados erradas para alterar os fluxos de processamento dos algoritmos. Os sujeitos podem procurar ativamente por conteúdo improvável ou discordante de suas preferências, confundindo o algoritmo e tornando-o incapaz de criar perfis. Sabendo como os algoritmos funcionam, os indivíduos podem criar perfis falsos desidentificando-se e fornecendo maneiras de espalhar desinformação.
Na China, por exemplo, os trabalhadores temporários costumam jogar com algoritmos para aumentar o preço pago pelas entregas (Borak, 2022): “As empresas geralmente organizam competições para encorajar os entregadores a receber mais pedidos - inspirando alguns passageiros a jogar de volta com os algoritmos, falsificando pedidos para melhorar sua posição”. Eles também organizam rejeições coletivas, criando zonas de exclusão para fazer subir os preços de algum pedido. Nesse tipo de manipulação de algoritmos, seus eus (e suas localizações) tornam -se mais opacos.
Outro exemplo dessa natureza dá-se quando fãs de grupos musicais criam estratégias para colocar seus ídolos no topo da visibilidade pública, jogando com algoritmos de classificação e recomendação. Fãs de Anitta foram acusados desse tipo de estratégia em março 2022, quando o hit Envolver chegou a liderar o Top Global com milhões de execuções em um único dia (Tilt, 2022). Bonini e Treré (2024, p. 107) narram o caso de fãs da mais famosa boy band de K-Pop:
Os fãs de BTS nos EUA criaram contas falsas para tocar a música da banda nos serviços de streaming e distribuíram acesso às contas dos usuários em outros países via redes sociais. Os destinatários transmitiam a música do BTS continuamente em vários dispositivos através de redes virtuais privadas (VPNs), que podem “falsificar” localizações redirecionando o tráfego do usuário através de múltiplos servidores globais. Alguns fãs chegavam ao ponto de organizar doações para que outros fãs pudessem pagar por contas premium de streaming. Esse tipo de ação em rede inflou artificialmente o consumo do álbum e enganou os algoritmos do Spotify, que interpretaram o rápido aumento de cliques como uma tendência musical em ascensão, merecendo maior visibilidade. Por sua vez, os algoritmos do Spotify incluíram automaticamente músicas do BTS em um maior número de playlists geradas por algoritmos. Dessa forma, os algoritmos do Spotify agiram como aliados involuntários da estratégia criada pelos fãs do BTS.
A manipulação permite que diferentes sujeitos desidentifiquem-se e dificultem ou contenham o trabalho dos algoritmos. A manipulação fornece aos sujeitos maneiras de contestar a polícia algorítmica, criar realidades e agir politicamente à margem dos sistemas sociotécnicos. Ao desidentificar e manipular os fluxos de entrada de dados, os sujeitos podem disseminar novas realidades e confrontar poderes existentes.
Confrontando sensores e desidentificando corpos
Desidentificar corpos implica obstruir a possibilidade de o Estado e as empresas identificarem pessoas por meio de dados biométricos. As sociedades baseadas em dados produzem dados não apenas por meio de números, mas também por meio de imagens, voz e texto. Em geral, os dispositivos digitais utilizam sensores que capturam diversos dados biométricos, incluindo geolocalização, imagens coletadas por câmeras disponíveis em espaços públicos ou celulares, sensores capazes de capturar impressões digitais ou reconhecimento de íris. O exercício da polícia depende da identificação dos corpos e da aplicação dessas identificações para diferentes finalidades.
Estados e corporações têm utilizado diferentes tecnologias para estabelecer o controle sobre os corpos, usando dados biométricos que permitem que algoritmos identifiquem os sujeitos e concentrem seu poder sobre eles. Os sistemas de reconhecimento facial usam múltiplas câmeras e diferentes sensores em espaços públicos para construir bancos de dados que permitem a identificação precisa de indivíduos (Crawford, 2021; Introna; Wood, 2004). Existem bilhões de imagens de pessoas disponíveis em bancos de dados como o AI Clearview, que viabilizam esse processo de identificação. O reconhecimento facial é aplicado para policiamento preditivo, ampliando formas de controle e influenciando diretamente o comportamento dos indivíduos na sociedade (Sheehey, 2019). Policiais em todo o mundo têm usado o reconhecimento facial para identificar pessoas em protestos públicos (Mozur, 2019). Outra possibilidade é a disponibilização de sensores em celulares, amplamente utilizados na pandemia da Covid-19, ou impressões digitais utilizadas para acessar bancos e serviços públicos.
A crescente utilização e disseminação destas tecnologias de identificação tem levado a diversas reações e tentativas de desidentificação. As estratégias adotadas pelos indivíduos para desidentificar os corpos incluem o uso de máscaras em espaços públicos, bem como de toucas ou capacetes. A utilização sistemática e intencional destes paramentos faz com que os sensores não consigam captar a imagem ou que a imagem tenha alterações que não permitam aos algoritmos realizar métricas de reconhecimento facial. Há também performances artísticas que usam a maquiagem para desidentificar os corpos e fugir dos sensores do reconhecimento facial. Conforme apontado por Fry (2018, p. 141):
algoritmos de última geração podem [...] ser facilmente enganados. Como eles funcionam detectando uma descrição estatística dos padrões de luz e escuridão em um rosto, você pode enganá-los apenas usando óculos modernos com um padrão perturbador impresso neles. Melhor ainda, ao projetar o padrão disruptivo específico para sinalizar o rosto de outra pessoa, você pode realmente fazer o algoritmo pensar que você é essa pessoa.
Outra tática por vezes utilizada pelos cidadãos é o impedimento ou mesmo a destruição de sensores de forma que não possam mais funcionar para identificá-los. Indivíduos em manifestações públicas em Hong Kong, por exemplo, confrontaram sensores com diferentes ativistas pintando câmeras para evitar serem identificados. Isso pode ser relevante para fugir de ações arbitrárias da polícia e exercer uma liberdade de expressão que não seria possível em condições de plena identificação.
Conclusões
Diante do crescente debate sobre relações de poder alimentadas por algoritmos nas sociedades contemporâneas, este artigo argumenta que a agência cria caminhos para desafiá-la. Além disso, argumenta que essa resistência acontece frequentemente nas práticas cotidianas da infrapolítica. É por meio de hidden transcripts da vida cotidiana que as táticas dos fracos vêm à tona, reinventando formas de vivenciar o mundo comum. Tais formas de resistência podem não ser revolucionárias ou abalar estruturas. Segundo Bonini e Treré (2024), elas sequer precisam ser plenamente intencionais. Elas podem não ser muito visíveis nem organizadas. Mas apontam para possibilidades de confrontar criativamente as estruturas que delimitam as sociedades contemporâneas, ou seja, uma ordem política dos algoritmos.
O artigo afirma que o poder dos algoritmos depende de sua capacidade de identificar e agrupar indivíduos. Isso muitas vezes é essencial para a consecução de seus propósitos. A partir de Rancière, interpretamos esse processo de identificação como parte da polícia e da ordem estabelecida. Enquanto muitos falaram sobre a relevância da avaliação da identidade, Rancière mostrou como a contestação política pode emergir da desidentificação. A recusa de identidades pré-estabelecidas e a tentativa de reinventar a si mesmo e seus lugares sociais podem promover mudanças políticas. Contra a polícia algorítmica, portanto, os indivíduos podem agir para negar a descrição e localização precisas de si mesmos dentro do tecido social.
Estratégias de anonimização, engano ou confronto de sensores apontam para formas cotidianas de resistência que estão ligadas à desidentificação. Ao recusarem ser totalmente conhecidos e transparentes, os indivíduos podem aumentar o atrito interno dos sistemas algorítmicos. Processos de desidentificação representam rupturas nos loops de feedback gerados por algoritmos e evitam suas tendências de profetizar nosso futuro com base em nossos passados (construídos). Tanto Rancière quanto De Certeau reconhecem que a ação precede a identidade, apontando para a importância de entender como os indivíduos escapam de determinismos e estruturas, reinventando formas de manter viva a agência. Ao fazê-lo, os indivíduos reinventam a si mesmos e ao mundo em que estão inseridos.
Este artigo aponta para uma agenda de pesquisa focada na compreensão da dinâmica da disputa política contra o poder dos algoritmos. Compreender a precedência da ação sobre as identidades conduz a um recurso heurístico que mostra como a emancipação pode envolver pequenas ações ordinárias pelas quais os indivíduos estão sempre mudando (Marques; Mendonça, 2018). Os processos de desidentificação afetam os atuais jogos de poder, estruturas estabelecidas e articulações moldadas por algoritmos cada vez mais presentes e decisivos para a construção de identidades. A resistência contra os algoritmos nem sempre será organizada, mas pode se basear em uma rede difusa de hidden transcripts por meio das quais os sujeitos fogem da transparência total das tecnologias digitais e, assim, reinventam-se.
Isso não significa ingenuidade, todavia. Algoritmos fazem parte de enormes e assimétricos sistemas de poder. Eles desempenham papéis fundamentais nas decisões que afetam a vida individual e têm profundas implicações sociais. Frequentemente descrevem, classificam e organizam os indivíduos em clusters para atingir seus propósitos, reproduzindo relações de poder. Não estamos negando ou reduzindo a centralidade dessa dinâmica nas sociedades contemporâneas. Reiteramos como essas resistências aqui elencadas são lampejos que não se configuram como a regra e que podem ser apropriados de formas diversas em relações de poder nem sempre produzindo deslocamentos efetivos. Ademais, enfatizamos que nem toda resistência é moralmente justa ou democrática. Não foi nosso intuito fazer uma defesa ingênua da resistência pela resistência, como ela sempre fosse benéfica e defensável. Apenas nos recusamos a conceder todo o poder aos algoritmos, como se não houvesse resistência ou formas de ação criativa. James Scott investigou a resistência em contextos de escravidão e colonialismo. Ele viu o potencial transformador da infrapolítica nesses contextos tão assimétricos e violentos, sem negar a existência da brutalidade. Ele procurou as rachaduras e fendas no sistema para entender os lampejos de resistência. Na mesma direção, perseguimos os lampejos de agenciamento em um mundo muito estruturado, marcado por profundas assimetrias.
Referências
- ALMEIDA, V.; FILGUEIRAS, F.; MENDONÇA, R. F. Algorithms and institutions: how social sciences can contribute to governance of algorithms? IEEE Internet Computing, v. 26, n. 2, p. 42-46, 2022.
- ALNEMR, N. Defending deliberative democracy in an algorithmic society: building deliberative capacity through contesting algorithmic harms. Unpublished manuscript, 2021.
- ALVES, P. F. Multistable political becomings: a postphenomenological study of how social media shape the political experiences of young brazilians. PhD Dissertation in Humanities and Social Sciences. University of Technology Sydney, 2021.
- ARUBAYI, D. Documenting the everyday hidden resistance of Ride-Hailing Platform Drivers to algorithmic management in Lagos, Nigeria. South Atlantic Quarterly, v. 120, n. 4, p. 823-838, 2021.
- ASENBAUM H. The politics of becoming: disidentification as radical democratic practice. European Journal of Social Theory, v. 24, n. 1, p. 86-104, 2021.
- ASENBAUM, H. Anonymity and democracy: absence as presence in the public sphere. American Political Science Review, v. 112, n. 3, p. 459-472, 2018.
- ASSUNÇÃO, H. S.; MENDONÇA, R. F. A estética política da gambiarra cotidiana. Revista Compolitica, v. 6, n. 1, p. 92-114, 2016.
-
BARRETT, B. An artist used 99 phones to fake a Google Maps traffic jam. Wired, 3 fev. 2020. Disponível em: Disponível em: https://www.wired.com/story/99-phones-fake-google-maps-traffic-jam/ Acesso em: 21 nov. 2022.
» https://www.wired.com/story/99-phones-fake-google-maps-traffic-jam/ -
BERGER, M. Why Palestinians are uniting around watermelon emoji. Washington Post. 9 jul. 2021. Disponível em: Disponível em: https://www.washingtonpost.com/world/2021/07/09/palestinian-watermelons/ Acesso em: 9 jul. 2022.
» https://www.washingtonpost.com/world/2021/07/09/palestinian-watermelons/ - BONINI T.; TRERÉ, E. Algorithms of resistance: the everyday fight against platform power. Boston: MIT Press, 2024.
-
BORAK, M. China’s gig workers are challenging their algorithmic bosses. Wired, 14 mar. 2022. Disponível em: Disponível em: https://www.wired.com/story/chinas-gig-workers-challenging-algorithmic-bosses/ Acesso em: 25 mar. 2022.
» https://www.wired.com/story/chinas-gig-workers-challenging-algorithmic-bosses/ - BOUFLEUR, R. A questão da gambiarra: formas alternativas de produzir artefatos e suas relações com o design de produtos. 2006. 153p. Dissertação (Mestrado em Urbanismo). Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo, 2006.
- BURGESS, P. Algorithmic augmentation of democracy: considering whether technology can enhance the concepts of democracy and the rule of law through four hypotheticals. AI & Society, v. 37, n. 1, p. 97-112, 2022.
- CHEN, H.; CHUNG, W.; QIN, J.; REID, E.; SAGEMAN, M.; WEINMANN, G. Uncovering the dark web: a case study of Jihad on the Web. Journal of the American Society for Information and Technology, v. 59, n. 8, p. 1347-1359, 2008.
- COBBE, J. Algorithmic censorship by social platforms: power and resistance. Philosophy & Technology, v. 34, n. 4, p. 739-766, 2021.
- COULDRY, N.; MEJIAS, U. Data colonialism: rethinking big data’s relation to the contemporary subject. Television & New Media, v. 20, n. 4, p. 336-349, 2019.
- CRAWFORD. K. The atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Heaven: Yale University Press, 2021.
-
CROOTOF, R. War torts: accountability for autonomous weapons systems. University of Pennsylvania Law Review, v. 164, n. 6, p. 1347-1402, 2016. Disponível em: Disponível em: https://scholarship.law.upenn.edu/cgi/viewcontent.cgi?article=9528%26context=penn_law_review%26httpsredir=1%26referer= Acesso em: 3 de abr. 2022.
» https://scholarship.law.upenn.edu/cgi/viewcontent.cgi?article=9528%26context=penn_law_review%26httpsredir=1%26referer= - DE CERTEAU, M. The practice of everyday life. Berkeley: University of California Press, 1984.
- DONAHOE, E.; METZGER, M. M. Artificial intelligence and human rights. Journal of Democracy, v. 30, n. 2, p. 115-126, 2019.
- EUBANKS, V. Automating inequality: how high-tech tools profile, police, and punish the poor. New York, NY: St. Martin’s Press, 2018.
- FELDSTEIN, S. The road to digital unfreedom: how artificial intelligence is reshaping repression. Journal of Democracy, v. 30, n. 1, p. 40-52, 2019.
- FILGUEIRAS, F. Big data, artificial intelligence, and the future of regulatory tools. In: HOWLETT, M. P. (ed.). Routledge handbook on policy tools. London: Routledge, 2022.
-
FINKLEA, K. Dark Web. Congressional Research Service, n. 7-5700, 2017. Disponível em: Disponível em: https://a51.nl/sites/default/files/pdf/R44101%20(1).pdf Acesso em: 20 maio 2022.
» https://a51.nl/sites/default/files/pdf/R44101%20(1).pdf - FRY, H. Hello world: being human in the age of algorithms. New York: W.W. Norton & Company, 2018.
- GANESH, M. I.; MOSS, E. Resistance and refusal to algorithmic harms: varieties of knowledge projects. Media International Australia, v. 183, n. 1, p. 90-106, 2022.
-
GEBEILY, M. Instagram, Twitter blame glitches for deleting Palestinian posts. REUTERS, 11 maio 2021. Disponível em: Disponível em: https://www.reuters.com/article/israel-palestinians-socialmedia-idUSL8N2MU624 Acesso em: 22 abr. 2022.
» https://www.reuters.com/article/israel-palestinians-socialmedia-idUSL8N2MU624 -
GEHL, R.W. Power/freedom on the dark web: a digital ethnography of the Dark Web social network. New Media & Society, v. 18, n. 7, p. 1219-1235, 2016. Disponível em: https://doi.org/10.1177%2F1461444814554900 Acesso em: 1 maio 2022.
» https://doi.org/https://doi.org/10.1177%2F1461444814554900 - HARCOURT, B.E. Exposed: desire and disobedience in the digital age. Cambridge: Harvard University Press, 2015.
- INTRONA, L.D.; WOOD, D. Picturing algorithmic surveillance: the politics of facial recognition systems. Surveillance & Society, v. 2, n. 2, p. 177-198, 2004.
- JOYCE, K.; SMITH-DOERR, L.; ALEGRIA, S.; BELL, S.; CRUZ, T.; HOFFMAN, S.G.; NOBLE, S.U., SHESTAKOFSKY, B. Toward a sociology of artificial intelligence: a call for research on inequalities and structural change. Socius: Sociological Research for a Dynamic World, v. 7, n. 11, p. 1-11, 2021.
- KITCHIN, R. Big data, new epistemologies and paradigm shift. Big Data & Society, v. 1, n. 1, p. 1-12, 2014.
-
LAU, T.; AKKARAJU, U. When algorithms decide whose voices will be heard. Harvard Business Review. Nova York, 12 nov. 2019 . Disponível em:Disponível em: https://hbr.org/2019/11/when-algorithms-decide-whose-voice-will-be-heard Acesso em: 21 nov. 2022.
» https://hbr.org/2019/11/when-algorithms-decide-whose-voice-will-be-heard - LEDFORD, H. Millions of black people affected by racial bias in health-care algorithms. Nature, v. 574, n. 6, p. 608-609, 2019.
- MARCH, J.G.; OLSEN, J.P. The logic of appropriateness. In: GOODIN, R. E. (ed.). The Oxford Handbook of Science. Oxford: Oxford University Press, 2009.
- MARQUES, A.C. S.; MENDONÇA, R.F. A política como (des)construção de sujeitos: desencaixes e rearticulações identitárias em protestos multitudinários contemporâneos. Galáxia, n. 37, p. 41-54, 2018.
- MARX, G.T. Windows into the Soul: surveillance and society in an age of high technology. Chicago: The University of Chicago Press, 2016.
- MENDONÇA, R. F.; ABREU, M. S.; SARMENTO, R. Repertórios discursivos e as disputas políticas contemporâneas. Novos Estudos Cebrap, v. 40, n. 1, p. 33-54, 2021.
- MENDONÇA, R. F.; FILGUEIRAS, F.; ALMEIDA, V. Algorithmic Institutionalism: the changing rules of social and political life. Oxford: Oxford University Press, 2023.
- MONSEES, L. Crypto-Politics: encryption and democratic practices in digital era. London: Routledge, 2019.
-
MOZUR, P. In Hong Kong protests, faces become weapons. New York Times, 26 jul. 2019. Disponível em: Disponível em: https://www.nytimes.com/2019/07/26/technology/hong-kong-protests-facial-recognition-surveillance.html Acesso em: 21 nov. 2022.
» https://www.nytimes.com/2019/07/26/technology/hong-kong-protests-facial-recognition-surveillance.html - NEWELL, A.; SIMON, H.A. Computer science and empirical inquiry: symbols and search. Communications of the ACM, v. 19, n. 3, p. 113-126, 1976.
- NOBLE, S.U. Algorithms of oppression: how search engines reinforce racism. New York: New York University Press, 2018.
- OBERMEYER, Z.; POWERS, B.; VOGELI, C.; MULLAINATHAN, S. Dissecting racial bias in an algorithm used to manage the health of populations. Science, v. 336, p. 447-453, 2019.
- O’NEIL, C. Weapons of math destruction. How big data increases inequality and threatens democracy. New York: Crown, 2016.
- PEREIRA, G.; MORESCHI, B., MINTZ, A.; BEIGUELMAN, G. We’ve always been antagonistic: algorithmic resistances and dissidences beyond the Global North. Media International Australia, v. 183, n. 1, p. 124-138, 2022.
- PETRE, C.; DUFFY, B. E.; HUND, E. Gaming the System: platform paternalism and the politics of algorithmic visibility. Social Media + Society, v. 5, n. 4, p. 1-12, 2019.
- RAMIZO, G. Platform playbook: a typology of consumer strategies against algorithmic control in digital platforms. Information, Communication & Society, v. 25, n. 13, p. 1849-1864, 2022.
- RANCIÈRE, J. Dis-Agreement: politics and philosophy. Minneapolis: University of Minnesota Press, 1999.
- ROSAS, R. Gambiarra: alguns pontos para se pensar uma tecnologia recombinante. Gambiarra, v. 1, n. 1, p. 19-26, 2008.
- RUSSELL, S. Human compatible: artificial intelligence and the problem of control. New York: Viking, 2019.
- SAMUEL, A. L. Artificial intelligence: a frontier of automation. The Annals of the American Academy of Political and Social Science, v. 340, n. 1, p. 10-20, 1962.
- SCHARRE, P. Army of none: autonomous weapons and the future of war. New York: W.W. Norton & Company, 2018.
- SCOTT, J. C. Domination and the arts of resistance. New Heaven: Yale University Press, 1990.
- SCOTT, J. C. Weapons of the weak: everyday forms of peasant resistance. New Heaven: Yale University Press, 2008.
- SCOTT. W. R. Institutions and organizations: ideas, interests and identities. Thousand Oaks: Sage, 2014.
- SHARABI, L. L. Finding love on a first data: Matching algorithms in online dating. Harvard Data Science Review, v. 4, n. 1, p. 1-11, 2022.
- SHEEHEY, B. Algorithmic paranoia: the temporal governmentality of predictive policing. Ethics and Information Technology, v. 21, n. 1, p. 49-58, 2019.
-
SHEPARDSON, D. Google ‘private browsing’ mode not really private, Texas lawsuit says. REUTERS, 19 maio 2022. Disponível em: Disponível em: https://www.reuters.com/legal/litigation/google-private-browsing-mode-not-really-private-texas-lawsuit-says-2022-05-19/ Acesso em: 20 jun. 2022.
» https://www.reuters.com/legal/litigation/google-private-browsing-mode-not-really-private-texas-lawsuit-says-2022-05-19/ - SIMON, H.A. The sciences of the artificial. Cambridge: MIT Press, 1996.
- SZULC, L. Digital gender disidentifications: beyond the subversion versus hegemony dichotomy and toward everyday gender practices. International Journal of Communication, v. 14, n. 10, p. 5436-5454, 2020.
- TILLY, C. From mobilization to revolution. New York: McGraw-Hill, 1978.
-
TILT. Como fãs de Anitta manipularam o algoritmo para levá-la ao topo do Spotify. Uol, 12 abr. 2022. Disponível em: Disponível em: https://www.uol.com.br/tilt/noticias/redacao/2022/04/12/como-fas-de-anitta-manipularam-algoritmo-para-coloca-la-no-topo-do-spotify.htm?cmpid=copiaecola Acesso em: 21 nov. 2022.
» https://www.uol.com.br/tilt/noticias/redacao/2022/04/12/como-fas-de-anitta-manipularam-algoritmo-para-coloca-la-no-topo-do-spotify.htm?cmpid=copiaecola -
VELKOVA, J., KAUN, A. algorithmic resistance: media practices and the politics of repair. Information, Communication & Society, v. 24, n. 4, p. 523-540, 2021. Disponível em: https://doi.org/10.1080/1369118X.2019.1657162 Acesso em: 21 nov. 2022.
» https://doi.org/https://doi.org/10.1080/1369118X.2019.1657162 - WEST, S.M. Cryptography as information control. Social Studies of Science, v. 52, n. 3, p. 353-375, 2022.
- ZUBOFF, S. The age of surveillance capitalism: the fight for human future at the new frontier of power. New York: Public Affairs, 2019.
-
1
Uma versão preliminar e sintética do argumento deste artigo foi publicada em Communications of the ACM,v. 66, n. 11, pp. 32-34, no ano de 2023. Somos gratos às pareceristas da Communications of the ACM e da Revista Brasileira de Ciência Política pelas sugestões e contribuições à melhoria do artigo. Também agradecemos ao Conselho Nacional de Desenvolvimento Científico e Tecnológico - CNPq (Processos: 406288/2023-2 e 303762/2023-3) e à Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil - CAPES (Código de Financiamento 001Capes), pelo financiamento de projetos a que se vincula este texto.
-
5
O termo devir, muito usado na literatura pós-estruturalista por autores com Deleuze e Derrida, remete, de forma muito simples, à ideia de um processo não encerrado, captando a continuidade do tornar-se ou a ideia do vir a ser. O termo devir projeta, assim, a noção de uma transformação permanente como constitutiva da existência. Ser é tornar-se, ressaltando a ideia de movimento. Na frase do texto a que remete essa nota, a noção de devir humano busca, assim, enfatizar que a configuração dos sujeitos é processual e que as tentativas de definição, ou fechamento, dos sujeitos atravessam o processo contínuo de configuração dos mesmos.
-
6
Importante levantar aqui uma ressalva muito interessante apontada por uma das pareceristas anônimas do presente artigo, a quem agradecemos aqui por descortinar uma nuance muito interessante do problema em tela. Visto que alguns sistemas algorítmicos são alimentados por bases de dados problemáticas e enviesadas, algumas violências algorítmicas são consequência não de sua eficiência na identificação, mas de sua ineficiência identificatória. Quando sistemas de reconhecimento facial produzem discriminação sistemática contra negros, as estruturas opressivas revelam-se na inadequação da identificação, e resistir a elas requer uma identificação mais precisa. Abaixo, reproduzimos um trecho do comentário exato da parecerista: “No contexto brasileiro, por exemplo, a utilização de algoritmos de reconhecimento facial para a segurança pública aponta para o problema oposto ao da necessidade da desidentificação: o problema de não ser identificável, especialmente para populações negras, que são frequentemente alvo de problemas de identificação algorítmicas - o que resulta em prisões injustas. Deste ponto de vista, a desidentificação como resistência apresenta sua limitação: ela é eficaz para aquele que tem como garantida a sua identificação: o sujeito hegemônico, que pode transitar entre as chaves nesse “jogo”.
-
7
Por agenciamento, aqui, entendemos a ação humana inserida em redes sociotécnicas e atravessada por formas diversas de agência (como as affordances técnicas, por exemplo), sendo afetada por elas ao mesmo tempo em que as afetam. No contexto da presente frase, queremos apenas dizer que os seres humanos resguardam capacidade de ação nas complexas tramas técnicas em que se inserem, mesmo que suas ações sejam moduladas por essas tramas.
-
8
Agradecemos a uma das pareceristas anônimas do presente artigo por pontuar esta questão.
-
9
Neste artigo, trabalhamos como os indivíduos resistem ao processo de identificação por algoritmos que promovem modos de desidentificação na dimensão infrapolítica. Outro corpo de literatura lida com os processos de desidentificação que emergem dos algoritmos. A esse respeito, ver Szulc (2020).
Editado por
-
Debora Rezende de Almeida
-
Rebecca Neaera Abers
Datas de Publicação
-
Publicação nesta coleção
31 Jan 2025 -
Data do Fascículo
2025
Histórico
-
Recebido
07 Nov 2023 -
Aceito
13 Ago 2024