Acessibilidade / Reportar erro

A regulação de conteúdo nas redes sociais: uma breve análise comparativa entre o NetzDG e a solução brasileira

THE REGULATION OF CONTENT ON SOCIAL NETWORKS: A BRIEF COMPARATIVE ANALYSIS BETWEEN NETZDG AND THE BRAZILIAN SOLUTION

Resumo

O presente artigo busca analisar a responsabilização normativa, no sistema brasileiro, dos provedores de redes sociais pelo conteúdo publicado on-line. Nesse âmbito, almeja perquirir os reflexos de uma possível responsabilização de tais agentes pela sua recusa em excluir determinada publicação após receberem uma notificação que aponta para sua ilegalidade. Para tal fim, em um primeiro momento, o artigo expõe o atual regime de responsabilização de provedores de aplicação no Brasil, consagrado pelo Marco Civil da Internet. Em seguida, a pesquisa recorre ao direito comparado, valendo-se do método funcional para estudar a regulação alemã nesse sentido (o Netzwerkdurchsetzungsgesetz - NetzDG), que foi um dos primeiros e mais influentes diplomas a trazer uma exigência mais rigorosa para que os provedores de redes sociais exerçam um controle mais efetivo sobre o conteúdo publicado on-line. A conclusão a que se chegou é a de que o sistema brasileiro não deve modificar seu atual regime, mas pode incorporar exigências de formalização e transparência que o regime alemão adota.

Palavras-chave
NetzDG; direito comparado; responsabilidade civil; internet; redes sociais

Abstract

This article aims to analyze the normative accountability, in the Brazilian system, of social network providers for content published online. In this context, it aims to investigate the effects of a possible liability of such agents for their refusal to remove a certain publication, after receiving a notification that points to its illegality. To this end, the article first exposes the current regime of liability of application providers in Brazil, enshrined in the Internet Civil Framework. Subsequently, the research uses Comparative Law, resorting to the functional method to study German regulation in this sense (the Netzwerkdurchsetzungsgesetz - NetzDG), which was one of the first and most influential texts to bring a stricter requirement for social network providers to exercise more effective control over content published online. The conclusion reached is that the Brazilian system should not change its current regime, but may incorporate requirements of formalization and transparency that the German regime adopts.

Keywords
NetzDG; Comparative Law; Tort Law; internet; social networks

Introdução

No dia 26 de junho de 2020, as ações do Facebook sofreram uma queda de 8,31% na bolsa de valores eletrônica Nasdaq. Somente do dia 22 ao dia 27 daquele mês, o valor de mercado da empresa foi reduzido em US$ 74,6 bilhões (GAGLIONI, 2020GAGLIONI, Cesar. O boicote dos anunciantes ao Facebook e ao Twitter. Nexo, São Paulo, 29 jun. 2020. Disponível em: Disponível em: https://www.nexojornal.com.br/expresso/2020/06/29/O-boicote-dos-anunciantes-ao-Facebook-e-ao-Twitter . Acesso em: 18 jul. 2020.
https://www.nexojornal.com.br/expresso/2...
). O motivo: mais de 150 empresas - entre as quais constam nomes como Unilever, Ford e Adidas - anunciaram um boicote à rede social, comprometendo-se a deixar de anunciar na plataforma no mês de julho.

A ação é resultado da campanha Stop Hate For Profit (pare de lucrar com o ódio, em tradução livre), que demanda do Facebook uma postura mais ativa - e combativa - ante as publicações na rede que veiculem discurso de ódio. Segundo disponibilizado no próprio site da campanha, que é encabeçada por organizações como Anti-Defamation League (ADL), National Association for the Advancement of Colored People (NAACP) e Sleeping Giants, o Facebook estaria adotando uma postura leniente com relação ao discurso de ódio e à violência presentes na plataforma. Em 2019, após enfrentar críticas de mesmo teor, o Chief Executive Officer (CEO) da empresa, Mark Zuckerberg, mostrou-se resistente à exclusão de conteúdo on-line, por considerar que isso prejudicaria a liberdade de expressão que, a seu ver, sua rede cria (PAUL, 2019PAUL, Kari. Zuckerberg Defends Facebook as Bastion of ‘Free Expression’ in Speech. The Guardian, Londres, 17 out. 2019. Disponível em: Disponível em: https://www.theguardian.com/technology/2019/oct/17/mark-zuckerberg-facebook-free-expression-speech . Acesso em: 21 jul. 2020.
https://www.theguardian.com/technology/2...
).

Tal cenário, que também atingiu o Twitter, revela uma nova tendência para os provedores de redes sociais, impulsionada tanto pela sociedade civil quanto pelo meio empresarial - que tem tais plataformas, hoje, como principal meio para divulgação de seus produtos e serviços. Essa nova tendência acaba por mover, gradativamente, a responsabilidade daquilo que é publicado na internet para a plataforma provedora, substituindo a ideia de que somente a conta que publicou o conteúdo seria por ele responsável. Contudo, referida dinâmica pode representar graves riscos para a liberdade de expressão, pois poderia levar a uma remoção excessiva de conteúdos publicados.

Diante dessa mudança de perspectiva, mostra-se necessário questionar o papel do Direito nesse processo: deve ele reforçar, normativamente, a exigência de que os provedores de redes sociais regulem o conteúdo nelas veiculado, ou deve tal dinâmica ser exercida pelos agentes econômicos apenas? Assim, o presente artigo almeja constatar se deve o Direito, especificamente, o brasileiro, modificar sua forma de responsabilização das empresas provedoras de redes sociais1 1 Aqui, as redes sociais são entendidas como uma espécie de “provedores de aplicações de internet”, na nomenclatura utilizada pelo Marco Civil da Internet. Assim, não será analisada a responsabilidade dos provedores de conexão, nem de outras formas de provedores. Ademais, dentro da noção de “provedores de aplicações de internet”, somente serão estudadas as redes sociais, de modo que outras aplicações, como serviços de busca, não se incluem no escopo deste artigo. - atualmente regulada pelo Marco Civil da Internet -, a fim de se coadunar com esses movimentos. A hipótese ante o questionamento feito é de que tal modificação não deve ser feita, tendo em vista que transferiria para as redes sociais o poder de decidir sobre o que deve ou não permanecer nas plataformas, que hoje possuem enorme importância para a democracia.

A pesquisa ora desenvolvida se mostra de grande relevância tendo em vista o enorme impacto que essa mudança de paradigma causaria no debate nas redes sociais, que hoje dominam os cenários político e social. Ademais, tal responsabilização sobre conteúdo publicado já vem sendo intensamente discutida no Brasil e no mundo, sobretudo conectada à problemática da desinformação; esta, no momento, está sendo debatida no Congresso Nacional com o Projeto de Lei (PL) n. 2.630/2020.2 2 O artigo, vale dizer, não se debruçará sobre os atuais projetos de lei em trâmite no Congresso brasileiro, tendo em vista que, neste momento, os PLs ainda estão em discussão. Ademais, o foco destes é a regulação sobretudo de comportamento, e não de conteúdo.

Vale ressaltar que este artigo não se ocupará da questão da regulação do comportamento dos usuários pelas redes sociais, mas tão somente da regulação do conteúdo postado. Assim, temas como comportamento inautêntico e bots não serão abordados com profundidade.

Outrossim, a pesquisa se iniciou com uma revisão bibliográfica consistente na leitura de textos que tratam da abordagem normativa sobre conteúdo publicado on-line. O estudo inicial sugeriu a relevância de se recorrer ao direito comparado, tanto pela universalidade do tema tratado quanto pelo fato de outros sistemas jurídicos já terem promovido a mudança aludida - responsabilizando os provedores das redes pelo conteúdo publicado após notificação. Ainda, destacou-se o sistema alemão para promover este estudo comparativo: a Alemanha foi um dos primeiros países a adotar uma forma mais rigorosa de responsabilização das redes sociais pelo conteúdo publicado, e, como a lei que promoveu tal modificação - o Netzwerkdurchsetzungsgesetz (NetzDG) - traz a obrigação da elaboração de relatórios pelas redes, existem amplos e profundos estudos acerca de suas consequências.

Ademais, vale ressaltar que existem pesquisas que indicam que esse projeto alemão de responsabilização de redes sociais influenciou processos legislativos semelhantes em muitos países. Essa influência não se limita somente ao âmbito europeu, em que o diploma germânico serviu de inspiração para regulações na França e na Rússia; na realidade, estendeu-se por todo o globo, e há registros de menções a ela nos debates parlamentares e até mesmo nas partes introdutórias de leis, em países como Singapura, Malásia, Filipinas, Venezuela e Honduras. Tal influência também pode ser constatada em outros tantos, como Austrália e Índia (MCHANGAMA e FISS, 2019MCHANGAMA, Jacob; FISS, Joelle. The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship. Copenhagen: Justitia and Authors, 2019.).

Assim, o presente estudo recorre ao direito comparado para tentar trazer uma resposta à questão proposta, e, na seara comparativa, vale-se do método funcional, que busca identificar respostas jurídicas similares ou distintas, funcionalmente equivalentes, para conflitos sociais semelhantes (DUTRA, 2016DUTRA, Deo Campos. Método(s) em direito comparado. Revista da Faculdade de Direito - UFPR, Curitiba, v. 61, n. 3, p. 189-212, set.-dez. 2016. Disponível em: Disponível em: https://revistas.ufpr.br/direito/article/view/46620 . Acesso em: 18 ago. 2020.
https://revistas.ufpr.br/direito/article...
). Aliás, encontrando-se a equivalência funcional, ainda que em bases normativas distintas, pode-se levar a problemática a um nível de maior abstração (REITZ, 1998REITZ, John C. How to Do Comparative Law. The American Journal of Comparative Law, Oxford, v. 46, n. 4, p. 617-636, 1998., p. 625).

Portanto, o artigo discutirá, primeiro - e de forma breve -, a atual relação existente entre as redes sociais e o debate, percorrendo as diferentes formas de responsabilização de seus provedores. Em seguida, descreverá o regime jurídico vigente no Brasil de responsabilização de redes sociais por conteúdos publicados. Após isso, explicitará como era a regulação na Alemanha antes do NetzDG, as mudanças que a lei trouxe e quais as suas consequências. Por fim, buscará extrair conclusões a partir da comparação desenvolvida.

1. O papel e a responsabilidade das redes sociais no debate democrático

1.1. O discurso nas redes e as bolhas

Em 2018, o Facebook atingiu a marca de 127 milhões de usuários ativos no Brasil (OLIVEIRA, 2018OLIVEIRA, Filipe. Facebook chega a 127 milhões de usuários mensais no Brasil. Folha de S.Paulo, São Paulo, 18 jul. 2018. Disponível em: Disponível em: https://www1.folha.uol.com.br/tec/2018/07/facebook-chega-a-127-milhoes-de-usuarios-mensais-no-brasil.shtml . Acesso em: 5 ago. 2020.
https://www1.folha.uol.com.br/tec/2018/0...
). Tal dado revela a importância que as redes sociais possuem na sociedade contemporânea, cada vez mais conectada e interligada pela internet. Em certa medida, a internet promoveu uma democratização dos meios de comunicação, antes restritos às grandes editoras. Conforme ressalta Branco (2017BRANCO, Sérgio. Fake news e os caminhos para fora da bolha. Revista Interesse Nacional, São Paulo, ano 10, n. 38, p. 51-61, ago.-out. 2017. Disponível em: Disponível em: https://interessenacional.com.br/fake-news-e-os-caminhos-para-fora-da-bolha/ . Acesso em: 10 jan. 2023.
https://interessenacional.com.br/fake-ne...
, p. 56), em nenhuma outra plataforma a liberdade de expressão se manifestou de forma tão intensa como nas redes sociais, pois nelas não há nenhum tipo de controle prévio sobre o que é publicado - o conteúdo postado depende somente da vontade do autor.

Embora isso tenha trazido enormes benefícios, como o incentivo ao debate, o maior acesso à informação e a possibilidade de manifestação a atores até então sem destaque nos meios de comunicação em massa, foi também responsável por um processo de desgaste das instituições e da própria verdade. Incentivados pela sensação de impunidade que o meio digital - com o aparente anonimato - oferece, a desinformação e o discurso de ódio dominaram a internet nos últimos anos, influenciando processos políticos e a prática discursiva como um todo.

Tal realidade se mostra ainda mais preocupante quando se considera que ela opera sob a assim chamada “bolha de filtros”. Na obra O filtro invisível, Eli Pariser (2011PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Rio de Janeiro: Jorge Zahar, 2011.) afirma que os algoritmos de personalização do conteúdo on-line levam à criação de uma bolha digital, na qual o usuário entra em contato somente com aquilo que lhe interessa. As redes sociais, com base em comportamentos e interações dos usuários, traçam um perfil de cada pessoa, que engloba seus interesses, seus posicionamentos políticos, suas áreas de estudo e pesquisa, entre outros. Assim, as redes sociais criam um feed ou uma linha do tempo específica para cada usuário, que contém uma combinação daquilo por que ele mais se interessa e daquilo que está sendo mais comentado no momento.

Embora, de um lado, essa filtragem gere maior interesse pelas redes sociais e maior engajamento no espaço virtual, ela possui graves consequências para o debate e para a formação de opinião. A partir do momento em que o usuário está inserido em uma “bolha de filtros”, que só lhe mostra aquilo pelo qual tem interesse, ele deixa de estar exposto a outras ideias e a outros posicionamentos; o usuário passa a estar cercado de ideias com as quais já está familiarizado, o que lhe dá uma certeza excessiva sobre sua convicção. Dessa maneira, perde-se a possibilidade de enxergar um tópico determinado sob outras perspectivas e o usuário perde o interesse por aprender coisas novas. Segundo Pariser (2011PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Rio de Janeiro: Jorge Zahar, 2011.), esse processo prejudica o equilíbrio existente entre o fortalecimento das ideias que já possuímos e a aquisição de novas ideias. Nesse sentido, vale destacar:

Tal qual uma lente, a bolha dos filtros transforma inevitavelmente o mundo que vivenciamos, determinando o que vemos e o que não vemos. Ela interfere na inter-relação entre nossos processos mentais e o ambiente externo. Em certos casos, pode atuar como uma lente de aumento, sendo muito útil quando queremos expandir a nossa visão sobre uma área específica do conhecimento. No entanto, os filtros personalizados podem, ao mesmo tempo, limitar a variedade de coisas às quais somos expostos, afetando assim o modo como pensamos e aprendemos. Podem perturbar o delicado equilíbrio cognitivo que nos ajuda a tomar boas decisões e a ter novas ideias. E como a criatividade também resulta dessa inter-relação entre a mente e o ambiente, os filtros podem prejudicar a inovação. Se quisermos saber como o mundo realmente é, temos que entender como os filtros moldam e distorcem a visão que temos dele. (PARISER, 2011PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Rio de Janeiro: Jorge Zahar, 2011., p. 58)

Essa lógica de funcionamento das redes sociais leva a uma crescente polarização e extremização dentro de determinadas posições. Isso se reflete nos conteúdos publicados, entre os quais, conforme supracitado, cada vez mais se encontram o discurso de ódio e a desinformação. Ante esse cenário, surge a reflexão a respeito da responsabilidade que os provedores de redes sociais têm sobre o conteúdo publicado nas plataformas. Questiona-se se as publicações seriam, de alguma forma, a eles imputáveis, e o papel deles diante da proliferação da desinformação e do discurso de ódio nas redes.

Passa-se, na próxima seção, a analisar as diferentes vertentes teóricas a respeito da responsabilização dos provedores de redes sociais pelos conteúdos publicados nas plataformas.

1.2. A responsabilização dos provedores

De acordo com a sistematização promovida por Carlos Affonso Souza e Ronaldo Lemos (2016SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: construção e aplicação. Juiz de Fora: Editar Editora Associada, 2016. Disponível em: Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf . Acesso em: 21 jul. 2020.
https://itsrio.org/wp-content/uploads/20...
) em sua obra Marco Civil da Internet: construção e aplicação, existem três principais vertentes de pensamento acerca de como os provedores de aplicação (e, entre eles, os provedores de redes sociais) devem ser responsabilizados por conteúdos disponibilizados nas plataformas. Assim, pela relevância dessas contribuições para a compreensão da opção normativa feita pelos sistemas jurídicos ora estudados, vale elucidar suas ideias.

Conforme uma primeira vertente, os provedores não têm nenhuma responsabilidade sobre as publicações, tendo em vista que são encarados como meros intermediários entre o usuário ofendido e o que fez a ofensa. Assim, não há conduta do provedor que possa fazer com que a responsabilidade seja atraída para si (de modo que nem mesmo pode figurar no polo passivo desse tipo de demanda).

Entretanto, há aqueles que defendem uma responsabilização objetiva dos provedores, ideia pela qual estes passariam a ter um dever de monitoramento sobre todo conteúdo publicado. Essa vertente se baseia, segundo alguns defensores, na ideia de que os provedores desenvolvem uma atividade de risco, que, de acordo com o artigo 927, parágrafo único, do Código Civil de 2002, dá ensejo à aplicação de uma responsabilização objetiva. Já na visão de outros, tal regime deveria ser aplicado, pois entre o usuário e o provedor existiria uma relação de consumo, e o fato de o usuário ter recebido uma ofensa, por exemplo, configuraria um defeito no serviço prestado.

Por fim, existe uma vertente, intermediária a essas duas, que defende a responsabilidade subjetiva dos provedores de aplicação. Nessa perspectiva, deve haver um comportamento (seja comissivo, seja omissivo) do provedor para que este possa atrair para si a responsabilização pela conduta do usuário, sendo que a teoria se bifurca em relação ao comportamento que ensejaria dita responsabilidade. De um lado, o provedor poderia ser responsabilizado caso recebesse uma notificação acerca de um conteúdo que viola certo direito e não atendesse ao aviso; de outro lado, ele poderia ser responsabilizado somente se não acatasse uma decisão judicial que ordenasse a retirada de certa publicação.

Conforme será constatado, tanto no Brasil quanto na Alemanha adota-se a teoria da responsabilidade subjetiva do provedor. No Brasil, antes do Marco Civil, utilizava-se a interpretação pela qual a responsabilidade seria decorrente do não atendimento a uma notificação; o Marco, por sua vez, passou a adotar a concepção da responsabilidade somente no caso de descumprimento de decisão judicial. Já na Alemanha, a interpretação prevalente é a da responsabilidade por notificação, embora existam algumas nuances que devem ser analisadas.

2. Regulação brasileira

Ao longo dos anos 2000, a questão da responsabilidade civil dos provedores de redes sociais no Brasil era tratada sobretudo pela jurisprudência do Superior Tribunal de Justiça (STJ), que analisava a aplicação dos dispositivos do Código Civil de 2002 e do Código de Defesa do Consumidor aos conflitos surgidos no meio digital. O Tribunal, ao longo de seus julgamentos, firmou o entendimento de que os provedores de aplicações não possuem responsabilidade objetiva sobre o conteúdo postado (afastando a incidência da teoria do risco) e não têm o dever de monitorar as publicações; contudo, estabeleceu que tinham uma responsabilidade subjetiva a partir do momento que fossem notificados sobre a existência de um conteúdo violador de algum direito. Dessa forma, de acordo com o entendimento da Corte, os provedores de aplicação seriam solidária e subjetivamente responsáveis pelos conteúdos ofensivos caso recebessem uma notificação acerca deles e não os removessem imediatamente (SOUZA e LEMOS, 2016SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: construção e aplicação. Juiz de Fora: Editar Editora Associada, 2016. Disponível em: Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf . Acesso em: 21 jul. 2020.
https://itsrio.org/wp-content/uploads/20...
, p. 82-83). Nessa toada, vale transcrever a seguinte ementa:

Direito civil e do consumidor. Internet. Relação de consumo. Incidência do CDC. Gratuidade do serviço. Indiferença. Provedor de conteúdo. Fiscalização prévia do teor das informações postadas no site pelos usuários. Desnecessidade. Mensagem de conteúdo ofensivo. Dano moral. Risco inerente ao negócio. Inexistência. Ciência da existência de conteúdo ilícito. Retirada imediata do ar. Dever. Disponibilização de meios para identificação de cada usuário. Dever. Registro do número de IP. Suficiência.

1. A exploração comercial da internet sujeita as relações de consumo daí advindas à Lei n. 8.078/90. 2. O fato de o serviço prestado pelo provedor de serviço de internet ser gratuito não desvirtua a relação de consumo, pois o termo “mediante remuneração” contido no art. 3o, § 2o, do CDC deve ser interpretado de forma ampla, de modo a incluir o ganho indireto do fornecedor. 3. A fiscalização prévia, pelo provedor de conteúdo, do teor das informações postadas na web por cada usuário não é atividade intrínseca ao serviço prestado, de modo que não se pode reputar defeituoso, nos termos do art. 14 do CDC, o site que não examina e filtra os dados e imagens nele inseridos. 4. O dano moral decorrente de mensagens com conteúdo ofensivo inseridas no site pelo usuário não constitui risco inerente à atividade dos provedores de conteúdo, de modo que não se lhes aplica a responsabilidade objetiva prevista no art. 927, parágrafo único, do CC/02. 5. Ao ser comunicado de que determinado texto ou imagem possui conteúdo ilícito, deve o provedor agir de forma enérgica, retirando o material do ar imediatamente, sob pena de responder solidariamente com o autor direto do dano, em virtude da omissão praticada. 6. Ao oferecer um serviço por meio do qual se possibilita que os usuários externem livremente sua opinião, deve o provedor de conteúdo ter o cuidado de propiciar meios para que se possa identificar cada um desses usuários, coibindo o anonimato e atribuindo a cada manifestação uma autoria certa e determinada. Sob a ótica da diligência média que se espera do provedor, deve este adotar as providências que, conforme as circunstâncias específicas de cada caso, estiverem ao seu alcance para a individualização dos usuários do site, sob pena de responsabilização subjetiva por culpa in omittendo. [...] 8. Recurso especial a que se nega provimento. (BRASIL, 2010BRASIL. Superior Tribunal de Justiça (3. Turma.) Ação de Obrigação de Fazer Cumulada com Indenização por Danos Morais. Recurso Especial 1.193.764. Relatora: Ministra Nancy Andrighi. Julgamento: 14 dez. 2010. Publicação: 8 ago. 2011.)

Em abril de 2014, após anos de discussão, foi aprovado no Brasil o Marco Civil da Internet. O debate acerca do Marco teve suas origens em 2007, com as reações contrárias a projetos de leis de caráter criminal para a regulação do meio digital. Em lugar de regulações normativas que criminalizariam condutas típicas na internet e restringiriam a inovação digital, a comunidade acadêmica e a sociedade civil passaram a defender um marco regulatório civil para a internet. Assim, opondo-se tanto à proposta de uma regulação repressiva quanto à ideia de que uma “internet livre” seria aquela sem leis, tais grupos passaram a defender a criação de um diploma que pudesse garantir e promover direitos e liberdades na rede (SOUZA e LEMOS, 2016SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: construção e aplicação. Juiz de Fora: Editar Editora Associada, 2016. Disponível em: Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf . Acesso em: 21 jul. 2020.
https://itsrio.org/wp-content/uploads/20...
).

Em 2009, as discussões chegaram ao governo federal, que, então, por meio do Ministério da Justiça, convocou um grupo de acadêmicos especializados no tema para iniciar o processo de construção do almejado diploma. A elaboração do anteprojeto foi acompanhada por um amplo e profundo debate público que se deu por meio do próprio meio a ser regulado: a internet. O processo foi dividido em duas fases, que contaram com contribuições dos mais diversos setores - desde indivíduos interessados até empresas e organizações da sociedade civil -, e que buscaram absorver da forma mais eficiente possível as opiniões e sugestões enviadas (SOUZA e LEMOS, 2016SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: construção e aplicação. Juiz de Fora: Editar Editora Associada, 2016. Disponível em: Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf . Acesso em: 21 jul. 2020.
https://itsrio.org/wp-content/uploads/20...
). Em 2011, o projeto, fruto dessa consulta, foi enviado ao Congresso Nacional pelo Poder Executivo. No Legislativo, a proposta enfrentou ainda um longo e intenso debate, e foi aprovada após três anos, entrando em vigor no dia 23 de junho de 2014, como a Lei n. 12.965/2014.

O diploma (BRASIL, 2014BRASIL. Lei n. 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.) estabelece um regime subjetivo de responsabilização dos provedores de redes sociais (que se enquadram no que a lei chama de provedores de aplicações), pelo qual estes, via de regra, só podem ser responsabilizados caso deixem de cumprir uma decisão judicial que determina a exclusão de um conteúdo - mudando o entendimento desenvolvido pelo STJ. Nesse sentido, vale transcrever a disposição:

Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. (BRASIL, 2014BRASIL. Lei n. 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.)

Assim, consagrou-se a responsabilização subjetiva dos provedores, não a partir da notificação do usuário, como vinha sendo construído pelo STJ, mas sim a partir de notificação judicial. Não há, nesse caso, a estipulação, de forma geral, de um prazo para a retirada do conteúdo, sendo este estabelecido em cada decisão judicial. Dessa forma, o provedor será responsabilizado caso, no prazo constante da decisão judicial, não retire o conteúdo para cuja remoção foi notificado.

Caitlin Mulholland (2015MULHOLLAND, Caitlin. Responsabilidade civil indireta dos provedores de serviço de internet e sua regulação no Marco Civil da Internet. In: ENCONTRO NACIONAL DO CONPEDI, 24., 2015, Florianópolis. Anais... Florianópolis: CONPEDI, 2015. p. 479-502.) sustenta que há, no Marco Civil, quatro requisitos necessários para a responsabilização legal do provedor de aplicações por conteúdos gerados por terceiros: (1) o pedido de notificação judicial formulado por pessoa que alega ter tido seu direito violado; (2) a avaliação judicial, ainda que liminar e antecipada, no sentido de que o conteúdo tem potencial lesivo; (3) a decisão judicial que notifica o provedor para a retirada do conteúdo, com sua devida indicação e estipulação de prazo para cumprimento; e (4) o descumprimento da notificação judicial.

Com isso, constata-se que:

[...] i) restou clara a responsabilidade subjetiva por omissão do provedor que não retira o conteúdo ofensivo, após a devida notificação judicial; ii) a mera notificação extrajudicial, em regra, não ensejará o dever jurídico de retirada do material; iii) esta opção de responsabilidade parece buscar o objetivo de assegurar a liberdade e evitar a censura privada; iv) o Judiciário foi considerado a instância legítima para definir a eventual ilicitude do conteúdo em questão; e v) a remoção de conteúdo não dependerá exclusivamente de ordem judicial, de forma que o provedor poderá a qualquer momento optar por retirar o conteúdo, e quando responderá por conduta própria. (TEFFÉ e MORAES, 2017TEFFÉ, Chiara Spadaccini de; MORAES, Maria Celina Bodin de. Redes sociais virtuais: privacidade e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar, Fortaleza, v. 22, n. 1, p. 108-146, jan.-abr. 2017. Disponível em: Disponível em: https://periodicos.unifor.br/rpen/article/view/6272/pdf . Acesso em: 30 jul. 2022.
https://periodicos.unifor.br/rpen/articl...
, p. 131-132)

O STJ, assim, passou a adotar o entendimento de que: (1) para fatos ocorridos anteriormente à entrada em vigor do Marco Civil, aplica-se a responsabilização subjetiva a partir da mera notificação do usuário; e (2) para fatos ocorridos já sob a vigência do Marco Civil, aplica-se a responsabilização subjetiva a partir da notificação judicial. Nesses termos, vale colacionar recente julgado da Corte:

Processual civil. Recurso especial. Ação de obrigação de fazer. Negativa de prestação jurisdicional. Inexistência. Pedido de remoção de publicações alegadamente ilícitas e concessão de registros de conexão e acesso. Litisconsórcio passivo necessário entre o provimento de aplicação e o suposto autor do conteúdo. Ausência.

[...]

4. A responsabilidade dos provedores de aplicações por conteúdos gerados por terceiros é subjetiva, tornando-se responsável solidariamente com aquele que gerou o conteúdo ofensivo a partir do conhecimento da lesão que determinada informação causa, se não tomar as providências necessárias para a sua remoção e caso o fato tenha se verificado quando não estava em vigor a Lei n. 12.965/14, ou a partir da notificação judicial para remoção do conteúdo, nos termos do art. 19 do MCI. 5. São dois os fundamentos do litisconsórcio necessário: (i) a existência de específica determinação legal, em razão do juízo de conveniência formulado pelo legislador; (ii) a incindibilidade das situações jurídicas de dois ou mais sujeitos (art. 114 do CPC/2015). O segundo fundamento refere-se aos casos de litisconsórcio passivo unitário, nos quais não é possível que um sujeito da relação jurídica suporte determinado efeito sem atingir todos os que dela participam. 6. Tratando-se de demanda na qual se busca impor ao provedor de aplicação a obrigação de remover determinadas publicações e de fornecer registros de acesso e conexão, não há litisconsórcio passivo necessário com o autor dos conteúdos. Tais providências incumbem ao provedor, mantenedor da rede social. Ou seja, eventual procedência dos pedidos não atingirá a esfera jurídica do autor das publicações. Ademais, eventual ilicitude do conteúdo da publicação e que poderá, eventualmente, resultar na responsabilização do seu autor, não acarretará, necessariamente, a responsabilidade do provedor. 7. Recurso especial conhecido e provido. (BRASIL, 2022BRASIL. Superior Tribunal de Justiça (3. Turma.) Ação de Obrigação de Fazer. Recurso Especial 1.980.014. Relatora: Ministra Nancy Andrighi. Julgamento: 14 jun. 2022. Publicação: 21 jun. 2022.)

Ademais, prevê o artigo 19, § 1o, do Marco Civil da Internet, que a ordem judicial deve conter, sob pena de nulidade, identificação clara e específica do conteúdo a ser removido, permitindo sua localização. Não houve, dessa maneira, exigência expressa do fornecimento da Uniform Resource Locator (URL), o que, dada a possibilidade de os conteúdos se tornarem virais, replicando-se, poderia limitar a efetividade da solução judicial. No entanto, estudos apontam que isso não tem sido seguido pelos Tribunais, que comumente pedem a indicação do endereço da página (TEFFÉ e MORAES, 2017TEFFÉ, Chiara Spadaccini de; MORAES, Maria Celina Bodin de. Redes sociais virtuais: privacidade e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar, Fortaleza, v. 22, n. 1, p. 108-146, jan.-abr. 2017. Disponível em: Disponível em: https://periodicos.unifor.br/rpen/article/view/6272/pdf . Acesso em: 30 jul. 2022.
https://periodicos.unifor.br/rpen/articl...
).

O artigo 20 do mesmo diploma, por seu lado, dispõe que, na hipótese de o provedor de aplicações possuir o contato do usuário cujo conteúdo foi removido, caberá à empresa comunicá-lo do motivo da indisponibilização do conteúdo e fornecer-lhe informações que lhe permitam o exercício do contraditório e da ampla defesa em juízo. Pelo parágrafo único, poderá o usuário solicitar a substituição do conteúdo que foi tornado indisponível pela motivação ou ordem judicial motivadora da remoção.

O Marco, entretanto, traz duas exceções a esse regime de responsabilização. No artigo 19, § 2o, estabelece que violações de direitos autorais devem ser tratadas por “previsão legal específica” (BRASIL, 2014BRASIL. Lei n. 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.), o que, no caso, refere-se à Lei de Direitos Autorais (Lei n. 9.610/1998), a qual dispõe que o provedor pode ser responsabilizado caso receba notificação acerca de um conteúdo que viole direitos autorais e não proceda à sua exclusão. Já no artigo 21, o diploma prevê que os provedores de aplicação podem ser responsabilizados caso sejam notificados sobre “violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado” (BRASIL, 2014BRASIL. Lei n. 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.) - o que enquadra os famosos casos de pornografia de vingança -, e não procedam à indisponibilização do conteúdo.

Percebe-se, assim, clara opção do diploma pela maior proteção da liberdade de expressão, mesmo diante de conteúdos que possam ser vistos como ofensivos pelos usuários. Nessa perspectiva:

Pode-se afirmar, em resumo, que no artigo 19 do Marco Civil: i) restou clara a responsabilidade subjetiva por omissão do provedor de aplicações de internet que não retira o conteúdo ofensivo após a devida ordem judicial; ii) como regra, a mera notificação extrajudicial não ensejará o dever jurídico de retirada do material questionado; iii) a opção de responsabilidade de viés subjetivo coaduna-se com o fim de assegurar a liberdade e evitar a censura privada na rede; iv) o Poder Judiciário foi considerado a instância legítima para definir a eventual ilicitude do conteúdo questionado e para construir limites mais legítimos para a expressão na rede, o que, por consequência, também promove uma maior segurança para os negócios desenvolvidos na Internet; e v) a remoção de conteúdo não dependerá exclusivamente de ordem judicial, de forma que o provedor poderá, a qualquer momento, optar por retirar o conteúdo caso ele vá contra os termos de uso que regem a plataforma. (SOUZA e LEMOS, 2016SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: construção e aplicação. Juiz de Fora: Editar Editora Associada, 2016. Disponível em: Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf . Acesso em: 21 jul. 2020.
https://itsrio.org/wp-content/uploads/20...
, p. 102)

Portanto, no atual regime jurídico brasileiro, que passou a ser seguido pelos tribunais após a entrada em vigor do Marco, os provedores das redes sociais ora em análise não podem, via de regra, ser responsabilizados por conteúdos publicados nas plataformas, mesmo que sejam notificados, pelos usuários, acerca de sua alegada ilegalidade - salvo nos casos de “pornografia de vingança” e de violação de direitos autorais. Assim, somente podem ser responsabilizados caso se recusem a cumprir mandado judicial que exige a retirada de determinado conteúdo.

Vale destacar que, apesar dessa forma de regulação, ainda assim as redes sociais removem, no Brasil, certos conteúdos contrários às suas diretrizes - seja a partir de denúncias, seja por constatação própria. De acordo com um relatório de transparência divulgado pelo Google, somente entre janeiro e março de 2020, 484.536 vídeos foram removidos no YouTube por violarem sua política interna (GOOGLE, 2020aGOOGLE. Cumprimento das diretrizes da comunidade do YouTube. Google Transparency Report, ago. 2020a. Disponível em: Disponível em: https://transparencyreport.google.com/youtube-policy/removals?videos_by_country=period:Y2020Q1;region:;p:1&lu=videos_by_country . Acesso em: 9 ago. 2020.
https://transparencyreport.google.com/yo...
). Desse modo, percebe-se que este é um procedimento relativamente comum, que ocorre ainda que o provedor não possa ser responsabilizado por não atender a uma notificação.

Apresentada a regulação brasileira da matéria, passa-se a explicitar a solução alemã para a questão.

3. Regulação alemã

3.1. Precedentes

Funcionalmente equivalente ao Marco Civil, tem-se, no âmbito da União Europeia, o E-Commerce Directive (Directive 2000/31/EC), que, em seu artigo 15(1), estabelece a proibição de que seus Estados-Membros obriguem os provedores a ativamente vigiar os conteúdos publicados em busca de ilegalidades (UNIÃO EUROPEIA, 2000UNIÃO EUROPEIA. Directive 2000/31/EC. Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (‘Directive on electronic commerce’). Official Journal L, [s.l.], v. 178, p. 1-16, 17 jul. 2000.). Entretanto, o artigo 14, cujo escopo inclui as redes sociais ora em discussão (host providers), prevê que os provedores não devem ser responsabilizados pelas publicações, desde que não tenham conhecimento efetivo acerca de sua ilegalidade. Tais disposições acabam por constituir um incentivo para que as empresas não promovam uma supervisão das publicações, a fim de evitar sua eventual responsabilização (SCHMITZ e BERNDT, 2019SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3306964...
).

Essa perspectiva, de certa forma voluntarista, e que acabava por vincular as redes sociais às suas próprias diretrizes, foi reforçada quando da realização de um Código de Conduta (UNIÃO EUROPEIA, 2016UNIÃO EUROPEIA. Código de Conduta para a Luta Contra os Discursos Ilegais de Incitação ao Ódio em Linha. Comissão Europeia, 31 maio 2016. Disponível em: Disponível em: https://ec.europa.eu/commission/presscorner/detail/pt/ip_20_1134 . Acesso em: 24 out. 2022.
https://ec.europa.eu/commission/presscor...
) para as empresas digitais, assinado, inicialmente, pelo Facebook, pelo Twitter, pelo YouTube e pela Microsoft, que se comprometeram a adotar medidas mais efetivas para o combate do discurso de ódio on-line.

No âmbito legislativo alemão, essas normas do E-Commerce são, em sua essência, reproduzidas no Telemediengesetz (Lei das Telecomunicações), parágrafos 7 a 10. Assim, aplicou-se na Alemanha, às empresas provedoras de redes sociais, a doutrina do Störerhaftung (responsabilidade por interferências, em tradução livre), que, em linhas gerais, estabelece que um intermediário (no caso em tela, as redes sociais) só pode ser responsabilizado se conscientemente contribuir para a violação de determinado direito; dessa forma, quando um conteúdo ilegal publicado on-line for reportado, o provedor tem a obrigação de tomar as devidas diligências (due diligence) para prevenir que violações semelhantes ocorram no futuro (SCHMITZ e BERNDT, 2019SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3306964...
).

Nesse bojo, havia um entendimento de que duas semanas após o recebimento de uma denúncia sobre um conteúdo seriam um tempo razoável para que as redes sociais começassem a tomar providências quanto a ele (WISCHMEYER, 2019WISCHMEYER, Thomas. ‘What is Illegal Offline is Also Illegal Online’ - The German Network Enforcement Act 2017. In: PETKOVA, Bilyana; OJANEN, Tuomas (eds.). Fundamental Rights Protection Online: The Future Regulation of Intermediaries. [S.l.]: Edward Elgar, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3256498 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3256498...
). Entretanto, o que deveria ser considerado discurso ilegal, ou não, era determinado pela própria política interna das redes sociais, vinculadas sobretudo à legislação dos Estados Unidos. Além disso, a forma como essa análise era feita permanecia desconhecida: não havia nenhuma exigência de uniformidade com relação aos modos como as reclamações deveriam ser recebidas, ou qual deveria ser a postura ante o seu recebimento.

Na perspectiva da sistematização supramencionada, a Alemanha (e a União Europeia) adotava uma responsabilização subjetiva dos provedores. Todavia, o momento em que tal responsabilidade poderia ser invocada não era claro, tendo em vista que não se pode definir com precisão o instante em que se tem conhecimento efetivo acerca da ilegalidade de um conteúdo (se depois da notificação, depois de duas semanas após a notificação ou depois de uma sentença nesse sentido).

Em 2015, a Alemanha recebeu em seu território mais de um milhão de refugiados, fato que gerou intenso debate no país (DEUTSCHE WELLE, 2016DEUTSCHE WELLE. Alemanha registra 1,1 milhão de refugiados em 2015. Deutsche Welle, 6 jan. 2016. Disponível em: Disponível em: https://www.dw.com/pt-br/alemanha-registra-11-milh%C3%A3o-de-refugiados-em-2015/a-18963840 . Acesso em: 22 jul. 2020.
https://www.dw.com/pt-br/alemanha-regist...
). Os refugiados, bem como os políticos responsáveis pelo aceite dos pedidos de asilo, passaram a ser alvo de desinformação e de discurso de ódio, notadamente em redes sociais (ECHIKSON e KNODT, 2018ECHIKSON, William; KNODT, Olivia. Germany’s NetzDG: A Key Test for Combatting Online Hate. Centre for European Policy Studies (CEPS), [s.l.], n. 2018/09, nov. 2018. Disponível em: Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300636#:~:text=Germa’y’s%20Network%20Enforcement%20Act%2C%20or,failure%20to%20delete%20illegal%20content . Acesso em: 21 jul. 2020.
https://papers.ssrn.com/sol3/papers.cfm?...
).

Diante de tal cenário, o então Ministro da Justiça alemão, Heiko Maas, criou uma força--tarefa com representantes das principais redes sociais no país, Facebook, Twitter e Google (por conta do YouTube), além de Organizações não Governamentais (ONGs) especializadas no tema, a fim de combater sobretudo o discurso de ódio do espaço digital. Para isso, criou-se uma espécie de código de conduta para as empresas, de caráter eminentemente voluntarista, pelo qual elas se comprometeram a, com auxílio das ONGs, promover maior controle do conteúdo veiculado em suas plataformas a partir de denúncias dos usuários (ALEMANHA, 2015ALEMANHA. Gemeinsam gegen Hassbotschaften. Von der Task Force „Umgang mit rechtswidrigen Hassbotschaften im Internet“ vorgeschlagene Wege zur Bekämpfung von Hassinhalten im Netz. Bundesministerium der Justiz und für Verbraucherschutz, Berlin, 15 dez. 2015. Disponível em: Disponível em: https://www.bmjv.de/SharedDocs/Downloads/DE/News/Artikel/12152015_TaskForceErgebnispapier.pdf?__blob=publicationFile&v=2 . Acesso em: 23 jul. 2020.
https://www.bmjv.de/SharedDocs/Downloads...
). Tratava-se de mais uma aposta na capacidade de autorregulação das redes sociais, com base em suas próprias diretrizes e políticas internas.

Todavia, no início de 2017, a percepção de que as empresas de tecnologia não cumpriram suas promessas, e de que as leis de proteção contra discurso de ódio e desinformação continuavam sem uma devida eficácia no meio digital, foi largamente reforçada. Em 2015, Modamani, um refugiado sírio, tirou uma foto sua com a chanceler alemã, Angela Merkel. A imagem viralizou e passou a aparecer em posts difamatórios, sobretudo no Facebook, nos quais se dizia que Modamani era responsável por ataques terroristas, e que Merkel teria uma conexão com isso. Diante dessa situação, a vítima solicitou uma postura do Facebook, que excluiu posts, mas se recusou a fazer uma filtragem sobre as novas publicações, para evitar novos ataques; ante tal recusa, Modamani entrou com uma ação contra a empresa (WISCHMEYER, 2019WISCHMEYER, Thomas. ‘What is Illegal Offline is Also Illegal Online’ - The German Network Enforcement Act 2017. In: PETKOVA, Bilyana; OJANEN, Tuomas (eds.). Fundamental Rights Protection Online: The Future Regulation of Intermediaries. [S.l.]: Edward Elgar, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3256498 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3256498...
). Contudo, em março de 2017, a Corte Regional de Würzburg decidiu, com base no artigo 10 do Telemediangesezt e nos artigos 14 e 15 da E-Commerce Directive, que o Facebook não poderia ser obrigado a preventivamente bloquear conteúdo que pudesse ofender o autor (ALEMANHA, 2017aALEMANHA. Landgericht Würzburg. Case 11 O 2338/16 UVR. Würzbug, Deutschland, 7 mar. 2017a.).

Somado a isso, a ONG jugendschutz.net conduziu um estudo para verificar a efetividade das medidas adotadas, e a pesquisa revelou que, dos conteúdos reportados por usuários como ilegais, o Facebook apagou 46%, o YouTube 10% e o Twitter 1% (JUGENDSCHUTZ.NET, 2017JUGENDSCHUTZ.NET. Löschung rechtswidriger Hassbeiträge bei Facebook, YouTube und Twitter. 2017. Disponível em: Disponível em: https://www.bmj.de/SharedDocs/Downloads/DE/News/Artikel/03142017_Monitoring_jugendschutz.net.pdf?__blob=publicationFile&v=3 . Acesso em: 23 jul. 2020.
https://www.bmj.de/SharedDocs/Downloads/...
). Em atenção a esse estudo, Heiko Maas, convencido da necessidade de um marco legal mais severo para lidar com o problema, apresentou, em abril de 2017, o rascunho de uma lei para regular conteúdo nas redes sociais. O projeto foi aprovado após poucos meses, dando origem a “Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz - NetzDG)”, que entrou em vigor a partir de 1o de outubro de 2017.

3.2. A Lei

O NetzDG (ALEMANHA, 2017bALEMANHA. Netzwerkdurchsetzungsgesetz vom 1. September 2017 (BGBl. I S. 3352). Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG). Bundesgesetzblatt Jahrgang 2017 Teil I Nr. 61, ausgegeben am 07 nov. 2017b, Seite 3352.) em si consiste no artigo primeiro da Lei n. 1.9.2017 I 3352, que, além de a criar, fez alterações no Telemediengesetz.

A lei define seu escopo em sua primeira seção, e, já nesse ponto, traz uma importante contribuição para os debates acerca do tema ao fazer uma definição de “redes sociais”, que é a que se segue:

Provedores de serviços de telecomunicações, que, com a intenção de obter lucro, operam plataformas na Internet, as quais são destinadas ao compartilhamento de conteúdo entre usuários ou sua disponibilização ao público (redes sociais). (ALEMANHA, 2017bALEMANHA. Netzwerkdurchsetzungsgesetz vom 1. September 2017 (BGBl. I S. 3352). Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG). Bundesgesetzblatt Jahrgang 2017 Teil I Nr. 61, ausgegeben am 07 nov. 2017b, Seite 3352., tradução livre)

Entretanto, faz uma exclusão explícita de duas figuras para esse conceito: das plataformas jornalísticas, que se responsabilizam pelo conteúdo que postam, e dos comumente denominados “aplicativos de mensagem”, como WhatsApp e Telegram (Plattformen, die zur Individualkommunikation oder zur Verbreitung spezifischer Inhalte bestimmt sind). Ademais, limita o escopo da lei às redes sociais que possuem mais de dois milhões de usuários no país.

Ainda em sua primeira seção, o NetzDG faz uma definição de o que seriam os “conteúdos ilegais” (rechtswidrige Inhalte) a que se refere, e por cuja remoção as redes sociais passaram a ser responsáveis. No lugar de fazer uma definição de fake news, de desinformação e de discurso de ódio, a lei faz referência direta a tipos penais já existentes no Código Penal alemão (Strafgesetzbuch), entre os quais cabe citar (em tradução livre): divulgação de material de propaganda de organizações inconstitucionais (§ 86); falsificação por traição (§ 100a); incitação pública ao crime (§ 111); violação da paz pública ao ameaçar cometer ofensas (§ 126); formação de organizações criminosas (§ 129); apologia ao ódio (§ 130); disseminação de representações de violência (§ 131); difamação de religiões e de associações religiosas e ideológicas (§ 166); injúria (§ 185); difamação (§ 186); difamação intencional (§ 187); violação da privacidade íntima por meio de fotografias (§ 201a); e falsificação de dados destinados a fornecer provas (§ 269).

Entretanto, constata-se que a lei teve o intuito de combater a desinformação e o discurso de ódio a partir da análise de sua motivação: a questão dos crimes de ódio aparece diversas vezes no documento, e o termo fake news é citado explicitamente, tanto na versão em inglês quanto na correspondente alemã (Falschnachrichten) - faz-se, inclusive, uma referência às eleições de 2016 dos Estados Unidos (ALEMANHA, 2017cALEMANHA. Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz - NetzDG). Drucksache 18/12356. Deutscher Bundestag, 18. Wahlperiode, Berlin, 16 maio 2017c. Disponível em: Disponível em: https://dipbt.bundestag.de/doc/btd/18/123/1812356.pdf . Acesso em: 30 jul. 2020.
https://dipbt.bundestag.de/doc/btd/18/12...
).

Dessa forma, embora não haja uma definição precisa do conceito de desinformação no diploma, é possível fazer uma subsunção do fenômeno a alguns dos tipos penais elencados. Claussen (2018CLAUSSEN, Victor. Fighting Hate Speech and Fake News. The Network Enforcement Act (NetzDG) in Germany in the Context of European Legislation. Rivista di Diritto dei Media, Milão, v. 4, n. 2, p. 110--136, out. 2018. Disponível em: Disponível em: http://www.medialaws.eu/rivista/fighting-hate-speech-and-fake-news-the-network-enforcement-act-netzdg-in-germany-in-the-context-of-european-legislation/ . Acesso em: 20 jul. 2020.
http://www.medialaws.eu/rivista/fighting...
) vê tal correspondência na difamação intencional (§ 187), na falsificação por traição (§ 100a) e na falsificação de dados destinados a fornecer provas (§ 269). Pode-se, ainda, depreender disso que o Parlamento alemão teve a percepção de que a desinformação não se trata de um conceito jurídico, mas sim de um complexo fenômeno, composto tanto de condutas criminosas quanto daquelas juridicamente irrelevantes, devendo a regulação, assim, debruçar-se somente sobre as primeiras (LADEUR e GOSTOMZYK, 2017LADEUR, Karl-Heinz; GOSTOMZYK, Tobias. Gutachten zur Verfassungsmäßigkeit des Entwurfs eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz - NetzDG) i.d.F. vom 16. Mai 2017 - BT-Drs. 18/12356. Erstattet auf Ansuchen des Bitkom, maio 2017. Disponível em: Disponível em: https://www.cr-online.de/NetzDG-Gutachten-Gostomzyk-Ladeur.pdf . Acesso em: 30 jul. 2020.
https://www.cr-online.de/NetzDG-Gutachte...
).

Após definir seu escopo, o diploma alemão estabelece, na seção 2, a obrigação de que as redes sociais publiquem, semestralmente, relatórios (Berichte) sobre como lidaram com as denúncias dos usuários acerca de conteúdos ilegais. Tal obrigação, porém, é limitada às redes que recebam mais de 100 denúncias desse tipo. Os relatórios devem conter, entre outros elementos, o número total de denúncias feitas pelos usuários (discriminadas por sua motivação), o número de conteúdos excluídos ou bloqueados e o tempo entre o recebimento das denúncias e a tomada de ações. Essa exigência foi uma das mais elogiadas da lei e recebeu apoio quase unânime, tendo em vista que dá maior transparência e fornece material para estudo da temática (TWOREK e LEERSSEN, 2019TWOREK, Heidi; LEERSSEN, Paddy. An Analysis of Germany’s NetzDG Law. First session of the Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression, Feb. 27-Mar. 3, 2019, Ditchley Park, U.K., 15 abr. 2019. Disponível em: Disponível em: https://www.ivir.nl/publicaties/download/NetzDG_Tworek_Leerssen_April_2019.pdf . Acesso em: 21 jul. 2020.
https://www.ivir.nl/publicaties/download...
).

Na seção seguinte, a lei prescreve aos provedores obrigações diretas quanto ao procedimento a ser adotado diante de uma denúncia de “conteúdo ilegal”. De início, determina que as redes sociais disponibilizem aos usuários um procedimento para a denúncia de conteúdos ilegais, que seja facilmente reconhecível, diretamente acessível e permanentemente disponível. Em seguida, ao receber uma reclamação, o provedor deve analisá-la e escrutinar a legalidade do conteúdo; caso o conteúdo seja ilegal, tem a obrigação de removê-lo ou de bloquear o acesso a ele. No caso da remoção, o conteúdo é deletado globalmente, deixando de existir na rede social. Já no caso do bloqueio, a restrição pode ser mais seletiva, tornando-o, por exemplo, indisponível somente para usuários com IP na Alemanha (SCHMITZ e BERNDT, 2019SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3306964...
).

O NetzDG faz ainda uma distinção entre conteúdos ilegais (rechtswidriger Inhalt) e manifestamente ilegais (offensichtlicher rechtswidriger Inhalt): os primeiros devem ser removidos (ou bloqueados) em até sete dias, ao passo que os segundos têm de ser indisponibilizados em até 24 horas. O prazo de sete dias pode ser estendido caso a avaliação do conteúdo como ilegal dependa da análise da falsidade de uma alegação feita ou de outras circunstâncias factuais ou caso a plataforma delegue a decisão a uma instituição autorregulada (Einrichtung der regulierten Selbstregulierung). Essa instituição, destinada a realizar uma análise da legalidade dos conteúdos, deve ser independente e formada coletivamente pelas redes sociais, as quais têm de aceitar suas decisões como obrigatórias; porém, até 2019, nenhuma havia sido criada (SCHMITZ e BERNDT, 2019SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3306964...
).

Outrossim, a seção 4 (Bußgeldvorschriften) traz provisões relativas às multas a que as empresas estão sujeitas caso não cumpram com as obrigações que a lei impõe, podendo a penalidade chegar a 5 milhões de euros.3 3 De acordo com provisões do Gesetz über Ordnungswidrigkeiten (OWiG - Código de Infrações Administrativas), a multa de 5 milhões pode chegar a até 50 milhões de euros, para pessoas jurídicas. Entretanto, conforme entendem Echikson e Knodt (2018ECHIKSON, William; KNODT, Olivia. Germany’s NetzDG: A Key Test for Combatting Online Hate. Centre for European Policy Studies (CEPS), [s.l.], n. 2018/09, nov. 2018. Disponível em: Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300636#:~:text=Germa’y’s%20Network%20Enforcement%20Act%2C%20or,failure%20to%20delete%20illegal%20content . Acesso em: 21 jul. 2020.
https://papers.ssrn.com/sol3/papers.cfm?...
), a multa é aplicada diante de uma falha sistemática em cumprir as provisões do NetzDG, e não de erros pontuais; ante sinceros julgamentos do provedor pela legalidade do conteúdo, ele não seria responsabilizado. Vale notar, ainda, que

[...] todas as multas dizem respeito a exigências formais e a realizações do NetzDG, e não à eliminação ou ao bloqueio efetivo do conteúdo. Mesmo que os provedores tenham que decidir se devem remover ou apagar o conteúdo dentro de 24 h, a lei não declara o que acontece se esse período de tempo não for satisfeito. (KASAKOWSKIJ et al., 2020KASAKOWSKIJ, Thomas et al. Network Enforcement as Denunciation Endorsement? A Critical Study on Legal Enforcement in Social Media. Telematics and Informatics, [s.l.], v. 46, 2020. Disponível em: Disponível em: https://www.sciencedirect.com/science/article/pii/S0736585319308093?via%3Dihub . Acesso em: 21 jul. 2020.
https://www.sciencedirect.com/science/ar...
, p. 3, tradução livre)

Nesse sentido, a multa não seria imposta porque a rede social deixou de eliminar uma publicação em específico, mas porque, sistematicamente, não adotou os procedimentos adequados para que essa checagem fosse feita, como o treino de seus funcionários, a disponibilização de uma forma de denúncia conforme a exigida, entre outros.

A propósito, conforme anteriormente mencionado, as redes sociais têm estruturas internas de monitoramento de publicações e análise de reclamações de usuários. Essas estruturas, porém, em geral, seguem códigos de conduta internos, cuja violação, pelo usuário, enseja, até sob uma perspectiva contratual, possibilidade de remoção da publicação. O que o NetzDG fez foi atribuir a esses órgãos a função de analisar as postagens com base nos tipos penais que elenca, sob pena de, perante falhas sistemáticas, impor-lhes multas.

Nessa toada, o diploma alemão ora analisado também estabelece uma responsabilização subjetiva do provedor da rede social; não obstante, a conduta que o torna responsável não é nem a negativa em atender a uma notificação (como uma primeira leitura poderia indicar), nem a recusa a seguir uma decisão judicial. O provedor se torna responsável a partir de falhas sistemáticas, reiteradas, em adotar as disposições organizacionais previstas na lei. Percebe-se, porém, que esse regime é mais rigoroso do que aquele adotado pelo Telemediengesetz, tanto porque vincula o conteúdo a ser removido à legislação penal quanto porque estabelece procedimentos específicos e multas pelo descumprimento.

Todavia, conforme ressaltam Echikson e Knodt (2018ECHIKSON, William; KNODT, Olivia. Germany’s NetzDG: A Key Test for Combatting Online Hate. Centre for European Policy Studies (CEPS), [s.l.], n. 2018/09, nov. 2018. Disponível em: Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300636#:~:text=Germa’y’s%20Network%20Enforcement%20Act%2C%20or,failure%20to%20delete%20illegal%20content . Acesso em: 21 jul. 2020.
https://papers.ssrn.com/sol3/papers.cfm?...
), o NetzDG, desde as discussões que levaram à sua aprovação, foi intensamente criticado. Ainda durante os debates legislativos, David Kaye, relator especial das Nações Unidas sobre liberdade de expressão e de opinião, criticou a possibilidade de o projeto de lei violar o Direito Internacional dos Direitos Humanos, ao desrespeitar a liberdade de expressão prevista no Pacto Internacional dos Direitos Civis e Políticos, do qual a Alemanha é signatária (KAYE, 2017KAYE, David. Mandate of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression. OL DEU 1/2017. Office of the High Commissioner for Human Rights, Geneva, Switzerland, 1o jun. 2017. Disponível em: Disponível em: https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf . Acesso em: 30 jul. 2020.
https://www.ohchr.org/Documents/Issues/O...
). A crítica foi seguida pela Human Rights Watch, que, além de tecer considerações semelhantes relativamente ao risco à liberdade de expressão, alertou para a possibilidade de a lei abrir precedente para países não democráticos (HUMAN RIGHTS WATCH, 2018HUMAN RIGHTS WATCH. Germany: Flawed Social Media Law. Human Rights Watch, Nova York, 14 fev. 2018. Disponível em: Disponível em: https://www.hrw.org/news/2018/02/14/germany-flawed-social-media-law#:~:text=(Berlin)%20%E2%80%93%20The%20new%20German,Human%20Rights%20Watch%20said%20today . Acesso em: 30 jul. 2020.
https://www.hrw.org/news/2018/02/14/germ...
). O diploma foi, ainda, criticado por diversas organizações, como o Bundesverband Informationswirtschaft, Telekommunikation und neue Medien (Bitkom), o ECO - Verband der Internetwirtschaft, entre outras, que chegaram a publicar uma declaração conjunta em protesto à adoção da lei (BITKOM et al., 2017BITKOM et al. Declaration on Freedom of Expression. In response to the adoption of the Network Enforcement Law („Netzwerkdurchsetzungsgesetz”) by the Federal Cabinet on April 5, Berlin, 2017. Digitale Gesellschaft e.V. Disponível em: Disponível em: https://deklaration-fuer-meinungsfreiheit.de/ . Acesso em: 23 jul. 2020.
https://deklaration-fuer-meinungsfreihei...
).

Uma das principais críticas feitas ao NetzDG diz respeito à possibilidade de a remoção (ou o bloqueio) de conteúdos on-line resultar em uma restrição à liberdade de expressão nas redes sociais. De acordo com diversos especialistas, a análise da legalidade das publicações exige, na maioria dos casos, tempo e conhecimento técnico. Dessa forma, os provedores seriam incapazes de realizar um exame efetivo ante os severos limites de tempo que a lei impõe. Tal fato, associado às altas multas cominadas pelo diploma, levaria a uma posição preventiva das empresas de, na dúvida, deletar, visando evitar as penalidades (ECHIKSON e KNODT, 2018ECHIKSON, William; KNODT, Olivia. Germany’s NetzDG: A Key Test for Combatting Online Hate. Centre for European Policy Studies (CEPS), [s.l.], n. 2018/09, nov. 2018. Disponível em: Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300636#:~:text=Germa’y’s%20Network%20Enforcement%20Act%2C%20or,failure%20to%20delete%20illegal%20content . Acesso em: 21 jul. 2020.
https://papers.ssrn.com/sol3/papers.cfm?...
, p. 7), fenômeno conhecido como over-blocking. O over-blocking (ou over--removal) seria a indisponibilização de um conteúdo, sem justificativa razoável, porque há um maior incentivo a deletá-lo do que a realizar a complexa análise de sua legalidade (HELDT, 2019HELDT, Amélie. Reading between the Lines and the Numbers: An Analysis of the First NetzDG Reports. Internet Policy Review, Berlim, v. 8, n. 2, 2019. Disponível em: Disponível em: https://policyreview.info/articles/analysis/reading-between-lines-and-numbers-analysis-first-netzdg-reports . Acesso em: 21 jul. 2020.
https://policyreview.info/articles/analy...
, p. 4). Para isso, contribui também a omissão da lei com relação a casos de remoção de conteúdos legais, os quais, em uma primeira visão, não seriam passíveis de penalização com a multa - somente podendo levantar questões contratuais com os usuários (CLAUSSEN, 2018CLAUSSEN, Victor. Fighting Hate Speech and Fake News. The Network Enforcement Act (NetzDG) in Germany in the Context of European Legislation. Rivista di Diritto dei Media, Milão, v. 4, n. 2, p. 110--136, out. 2018. Disponível em: Disponível em: http://www.medialaws.eu/rivista/fighting-hate-speech-and-fake-news-the-network-enforcement-act-netzdg-in-germany-in-the-context-of-european-legislation/ . Acesso em: 20 jul. 2020.
http://www.medialaws.eu/rivista/fighting...
, p. 121).

Por outro lado, certos autores sustentam que a própria estrutura das redes sociais impediria a ocorrência de over-blocking. Isso porque, para serem lucrativas, elas dependem de engajamento e utilização constantes, os quais, certamente, seriam prejudicados pela deleção recorrente de conteúdos; assim, para manterem seu funcionamento, elas evitariam fazê--lo (THEIL, 2018THEIL, Stefan. The German NetzDG: A Risk Worth Taking? Verfassungsblog, Berlim, 8 fev. 2018. Disponível em: Disponível em: https://verfassungsblog.de/the-german-netzdg-a-risk-worth-taking/ . Acesso em: 23 jul. 2020.
https://verfassungsblog.de/the-german-ne...
).

Outrossim, critica-se ainda que o NetzDG poderia levar a uma “privatização da função jurisdicional”. Afirma-se que, com o diploma, quem faz o controle do discurso que é considerado legal ou ilegal são as redes sociais, e não os Tribunais ou outras instituições democráticas (CLAUSSEN, 2018CLAUSSEN, Victor. Fighting Hate Speech and Fake News. The Network Enforcement Act (NetzDG) in Germany in the Context of European Legislation. Rivista di Diritto dei Media, Milão, v. 4, n. 2, p. 110--136, out. 2018. Disponível em: Disponível em: http://www.medialaws.eu/rivista/fighting-hate-speech-and-fake-news-the-network-enforcement-act-netzdg-in-germany-in-the-context-of-european-legislation/ . Acesso em: 20 jul. 2020.
http://www.medialaws.eu/rivista/fighting...
). Aliás, não há a necessidade de que uma corte determine a exclusão de um conteúdo, por ser ilegal, para que ele seja removido (TWOREK e LEERSSEN, 2019TWOREK, Heidi; LEERSSEN, Paddy. An Analysis of Germany’s NetzDG Law. First session of the Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression, Feb. 27-Mar. 3, 2019, Ditchley Park, U.K., 15 abr. 2019. Disponível em: Disponível em: https://www.ivir.nl/publicaties/download/NetzDG_Tworek_Leerssen_April_2019.pdf . Acesso em: 21 jul. 2020.
https://www.ivir.nl/publicaties/download...
).

Contudo, essa ideia da “privatização da função jurisdicional” é vista com ressalva por diversos autores. Aqueles contrários a essa crítica sustentam que, como - segundo o parágrafo quinto da seção 4 da Lei - se faz necessária uma decisão judicial que declare a ilegalidade do conteúdo, para que o provedor da rede seja responsabilizado por sua manutenção, o Judiciário se mantém como o último intérprete da lei (SCHMITZ e BERNDT, 2019SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3306964...
). Ademais, afirma-se que não houve grandes mudanças com relação ao regime do Störerhaftung quanto à responsabilidade pela exclusão do conteúdo: também antes da promulgação do NetzDG, as redes sociais eram responsáveis pela decisão sobre qual conteúdo excluir (WISCHMEYER, 2019WISCHMEYER, Thomas. ‘What is Illegal Offline is Also Illegal Online’ - The German Network Enforcement Act 2017. In: PETKOVA, Bilyana; OJANEN, Tuomas (eds.). Fundamental Rights Protection Online: The Future Regulation of Intermediaries. [S.l.]: Edward Elgar, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3256498 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3256498...
). Não obstante, é inegável que, nos casos de exclusão que não são levados à Justiça, a rede social se mantém como intérprete última da lei; já no que diz respeito à continuidade do regime do Störerhaftung, enquanto neste as redes eram vinculadas mais às próprias políticas internas, no atual regime são vinculadas à interpretação de tipos penais.

Destarte, embora tanto o Marco Civil, no Brasil, quanto o NetzDG, na AlemanhaALEMANHA. Telemediengesetz vom 26. Februar 2007 (BGBl. I S. 179). Telemediengesetz (TMG). Bundesgesetzblatt Jahrgang 2007 Teil I Nr. 6, ausgegeben am 28.02.2007, Seite 179., estipulem uma responsabilização subjetiva dos provedores com relação aos conteúdos publicados na plataforma, aquele dispõe que essa responsabilidade surge somente a partir da negativa da empresa de apagar o conteúdo, ante uma decisão judicial determinando que o faça, e este estabelece que a responsabilidade decorre da constatação de falhas sistemáticas e reiteradas na adoção das práticas e dos controles legalmente definidos.

A norma brasileira tem o mérito de privilegiar a liberdade de expressão do usuário, repelindo a lógica da exigência de censura prévia dos conteúdos pelo provedor - embora não impeça a adoção de controles internos pelas plataformas com base em suas próprias políticas. Não há, porém, exigências relativas a essas estruturas de controles internos. Parte da doutrina critica essa solução, pois, dada a morosidade da apreciação judicial, e, inversamente, a celeridade dos compartilhamentos em redes sociais, a publicação pode se propagar e o dano se intensificar (TEFFÉ e MORAES, 2017TEFFÉ, Chiara Spadaccini de; MORAES, Maria Celina Bodin de. Redes sociais virtuais: privacidade e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar, Fortaleza, v. 22, n. 1, p. 108-146, jan.-abr. 2017. Disponível em: Disponível em: https://periodicos.unifor.br/rpen/article/view/6272/pdf . Acesso em: 30 jul. 2022.
https://periodicos.unifor.br/rpen/articl...
). No entanto, é justamente essa lógica que impede que a decisão a respeito do que é ou não ilegal seja delegada a agentes privados. Os provedores podem remover conteúdos porque estes violam suas políticas internas (que podem, em maior ou menor medida, refletir disposições legais), mas não porque foram incumbidos, pela lei, de aferir se determinadas condutas são ou não ilegais.

Todavia, a norma alemã aposta nas estruturas e nos controles internos dos próprios provedores. Com isso, garante maior celeridade à análise e à eventual remoção de conteúdos, e evita o aprofundamento do dano com a permanência ou replicação da publicação. Entretanto, essa lógica acaba por atribuir aos agentes privados a decisão sobre a legalidade das publicações, encarregando-os, inclusive, de associar as condutas a tipos penais previstos no ordenamento jurídico alemão. A isso, soma-se o risco de over-blocking, anteriormente exposto, diante do receio de recebimento de multas.

Feitos esse panorama da norma alemã e uma breve comparação de sua lógica com aquela consignada pela legislação brasileira, passa-se à análise dos resultados dos relatórios exigidos pelo NetzDG.

3.3. Os resultados

Conforme disposto na segunda seção do NetzDG, as redes sociais são obrigadas a divulgar um relatório, a cada seis meses, informando o número de reclamações que receberam com base na lei, as atitudes que tomaram perante essas reclamações, o tempo que levaram para agir, entre outros aspectos. Até agosto de 2020,4 4 Este artigo foi encaminhado para publicação no dia 18 de agosto de 2020. Dessa forma, foram considerados, para análise, apenas os relatórios publicados até referida data. já haviam sido feitos cinco relatórios (por cada uma das redes), os quais, embora não permitam tirar uma conclusão definitiva a respeito da adequação da lei, trazem importantes informações para o debate. Dessa forma, este artigo procederá a uma breve análise dos resultados divulgados no primeiro (janeiro a junho de 2018) e no último (janeiro a junho de 2020) relatórios, restringindo-se aos elaborados pelo Twitter, pelo Facebook e pelo YouTube (com exceção, portanto, do Change.org).

Nas três redes sociais, foi disponibilizado um campo próprio para denúncias fundamentadas no NetzDG, separado do campo para as denúncias baseadas nas diretrizes internas, por exemplo. Entretanto, ainda assim, todas adotaram um procedimento de duas etapas ante o recebimento de uma denúncia com base no NetzDG: primeiro, avaliavam se o conteúdo violava a política interna do site, de modo que, em caso afirmativo, a postagem era removida da rede; caso se considerasse que o conteúdo não violava a política interna, procedia-se à sua análise com base na lei, de forma que, se fosse contrária ao diploma, a publicação seria bloqueada somente na Alemanha (SCHMITZ e BERNDT, 2019SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3306964...
, p. 35). Em todos os casos, o volume de conteúdos (denunciados com base no NetzDG) deletados por violarem a política interna das plataformas foi muito superior ao volume dos delatados por violarem somente o NetzDG.

O YouTube (Google) incluiu a opção de denúncia com base no diploma como uma nova possibilidade de flagging (sinalização), mas no mesmo lugar onde são disponibilizadas as demais opções. Para facilitar a denúncia, a rede social não exige que se indique o tipo penal específico violado pelo conteúdo; ela agrupou os tipos penais em classes e pede apenas a indicação de uma destas. No primeiro semestre após a entrada em vigor da lei, o YouTube recebeu um total de 214.827 denúncias de conteúdo; destas, cerca de 27% foram removidas (ou bloqueadas), e em aproximadamente 93% dos casos a decisão foi tomada em menos de uma hora. Em nenhum dos casos aquele que postou o conteúdo foi convocado para se defender. Já no primeiro semestre de 2020, a rede social recebeu 388.824 denúncias, das quais 23,36% resultaram em remoção ou bloqueio, e cerca de 92% das decisões foram tomadas em menos de 24 horas (GOOGLE, 2020bGOOGLE. Entfernungen von Inhalten nach dem Netzwerkdurchsetzungsgesetz. Google Transparenzbericht, jul. 2020b. Disponível em: Disponível em: https://transparencyreport.google.com/netzdg/youtube?hl=de . Acesso em: 1o ago. 2020.
https://transparencyreport.google.com/ne...
). Isso mostra que ao longo desses dois anos a ação do YouTube diante das denúncias se manteve a mesma.

O Twitter também possibilitou que a denúncia de conteúdos com base no NetzDG fosse feita, da mesma forma como as demais reclamações, diretamente a partir da publicação. Porém, ao contrário do YouTube, exigiu a especificação do tipo penal em violação, além de outras informações. De janeiro a junho de 2018, a rede social recebeu 264.818 denúncias baseadas no NetzDG, das quais 10,8% resultaram no bloqueio ou na remoção de um conteúdo, e cerca de 98% das decisões foram tomadas em menos de 24 horas (TWITTER, 2018TWITTER. Twitter Netzwerkdurchsetzungsgesetzbericht: Januar - Juni 2018. Twitter Transparency Report, jul. 2018. Disponível em: Disponível em: https://transparency.twitter.com/content/dam/transparency-twitter/archive/data/download-netzdg-report/netzdg-jan-jun-2020.pdf . Acesso em: 10 jan. 2023.
https://transparency.twitter.com/content...
). Já de janeiro a junho de 2020, o Twitter recebeu 765.715 denúncias, das quais em torno de 16% foram atendidas, e cerca de 90% das medidas foram tomadas dentro de 24 horas (TWITTER, 2020TWITTER. Twitter Netzwerkdurchsetzungsgesetzbericht: Januar - Juni 2020. Twitter Transparency Report, jul. 2020. Disponível em: Disponível em: https://cdn.cms-twdigitalassets.com/content/dam/transparency-twitter/data/download-netzdg-report/netzdg-jan-jun-2020.pdf . Acesso em: 1o ago. 2020.
https://cdn.cms-twdigitalassets.com/cont...
). Assim, apesar do aumento considerável no número de denúncias, o Twitter também manteve um mesmo padrão de ação, com uma taxa de eliminação relativamente baixa.

Por fim, o Facebook, diferentemente das demais plataformas, disponibilizou a opção de fazer uma denúncia com base no NetzDG não na própria publicação (como é feito com os demais tipos de denúncias), mas em uma página separada, sendo necessário, para achá--la, acessar a aba de ajuda e suporte. A página de denúncia exigia não só a indicação do tipo penal exato que supostamente estaria sendo violado pela publicação, como também o link da publicação (já que era em outra página), dados do denunciante e breve descrição sobre o porquê de o conteúdo violar a lei. No primeiro semestre de 2018, a rede social recebeu somente 886 denúncias baseadas na lei, das quais 24,6% foram atendidas, e 86% das decisões foram tomadas em menos de 24 horas (FACEBOOK, 2018FACEBOOK. NetzDG Transparency Report: July 2018. Facebook Transparency, jul. 2018. Disponível em: Disponível em: https://about.fb.com/wp-content/uploads/2018/07/facebook_netzdg_july_2018_english-1.pdf . Acesso em: 10 jan. 2023.
https://about.fb.com/wp-content/uploads/...
). Por sua vez, de janeiro a junho de 2020, o Facebook recebeu 4.292 reclamações, das quais 31,3% resultaram no bloqueio ou na remoção de conteúdos, e cerca de 91% das decisões foram tomadas dentro de 24 horas (FACEBOOK, 2020FACEBOOK. NetzDG Transparency Report: July 2020. Facebook Transparency, jul. 2020. Disponível em: Disponível em: https://about.fb.com/wp-content/uploads/2020/07/facebook_netzdg_July_2020_English.pdf . Acesso em: 1o ago. 2020.
https://about.fb.com/wp-content/uploads/...
). O baixo número de denúncias feitas no Facebook, em comparação às demais redes sociais, pode ser explicado pela forma como foi disponibilizado o formulário para denúncias com base no NetzDG, bem como pelas diversas informações exigidas.5 5 A conduta adotada pela empresa, inclusive, levou à imposição de uma multa, com fulcro na quarta seção do NetzDG, no montante de 2 milhões de euros, em julho de 2019. A multa, imposta pelo Bundesamt für Justiz, baseou-se sobretudo na alegação de que o formulário disponibilizado pelo Facebook para denúncias com base na lei não era transparente o suficiente (ALEMANHA, 2019).

Esses dados mostram que, de certa forma, o receio de que o NetzDG levaria a uma exclusão em massa dos conteúdos denunciados (over-blocking) não se concretizou. Aliás, em nenhuma das redes sociais ora analisadas a taxa de exclusão dos conteúdos denunciados ultrapassou um terço. Isso parece indicar que, mesmo diante do risco de serem penalizados com multas que podem chegar a 50 milhões de euros, os provedores de redes sociais apresentam certa resistência à exclusão de publicações, a não ser que sua contrariedade às diretrizes seja evidente. Tal constatação poderia ser explicada, de um lado, pelo fato de que as redes sociais dependem de conteúdos polêmicos, com elevado volume de interações, para seu próprio funcionamento, e de outro, por uma predisposição dos usuários em, ao se deparar com uma publicação de que discordam, denunciá-la. Contudo, os números divulgados não permitem chegar a uma conclusão efetiva.

Outrossim, é válido notar que as três plataformas adotaram uma sistemática de análise em duas etapas, que confronta o conteúdo primeiro com as diretrizes internas, e, depois com os tipos penais do NetzDG. Além disso, conforme explicitamente mencionado por algumas redes sociais em seus relatórios, a maioria do conteúdo que foi excluído a partir de denúncias com base na lei foi removida por violação da política interna, e não por violação do diploma. Cabe questionar, assim, se também não teria sido removido caso as denúncias tivessem sido feitas pelos procedimentos comuns (os que não são baseados na lei).

Não obstante, apesar de o temor do over-blocking não ter se concretizado conforme previsto, o NetzDG alocou um enorme poder para as redes sociais, que, legalmente, passaram a ser responsáveis por promover a interpretação de tipos penais e sua aplicação a casos concretos - o que se mostra ainda mais relevante ante tipos penais de difícil enquadramento prático, que se encontram na área cinzenta entre o discurso protegido pela liberdade de expressão e aquele criminalmente vedado. A propósito, o diploma exige ainda que os provedores façam uma análise sobre se o conteúdo é manifestamente ilegal ou não, devendo proceder à imediata remoção caso seja, interpretação essa que, via de regra, deveria ser reservada aos Tribunais.

No entanto, vale mencionar que parte dos riscos atrelados a essa “delegação jurisdicional” às plataformas tem sido combatida pelos próprios agentes. O Facebook, por exemplo, criou, em maio de 2020, o Oversight Board, órgão independente destinado a decidir, em última instância, sobre publicações no Facebook e no Instagram. Trata-se de um conselho externo, que não se confunde com o Facebook, tampouco é por este governado. Possui um orçamento autônomo e membros cujos mandatos são fixos. Assim, buscou-se eliminar preocupações relacionadas à submissão das decisões de tal órgão aos interesses lucrativos do provedor (LEMOS, 2020LEMOS, Ronaldo. O Oversight Board do Facebook. Instituto Tecnologia e Sociedade, Rio de Janeiro, 12 maio 2020. Disponível em: Disponível em: https://itsrio.org/pt/artigos/o-oversight-board-do-facebook/ . Acesso em: 30 jul. 2022.
https://itsrio.org/pt/artigos/o-oversigh...
). Ressalta-se, porém, que o Oversight Board não foi criado tendo em vista o NetzDG, nem possui atuação restrita à Alemanha. Traz-se ele à discussão tão somente pelo fato de ser um exemplo de estrutura que mitigou os riscos atrelados à questão ora apontada.

Embora se argumente que essa delegação decisória aos agentes privados já havia sido realizada por meio do Telemediengesetz (WISCHMEYER, 2019WISCHMEYER, Thomas. ‘What is Illegal Offline is Also Illegal Online’ - The German Network Enforcement Act 2017. In: PETKOVA, Bilyana; OJANEN, Tuomas (eds.). Fundamental Rights Protection Online: The Future Regulation of Intermediaries. [S.l.]: Edward Elgar, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3256498 . Acesso em: 20 jul. 2020.
https://ssrn.com/abstract=3256498...
) e da doutrina do Störerhaftung, estes promoviam mais uma exigência de que as plataformas adotassem uma devida diligência no cumprimento de suas diretrizes, ainda que pudessem ser responsabilizadas por uma inobservância; o NetzDG, por seu lado, vincula as redes sociais ao enquadramento de condutas a tipos penais explicitamente discriminados, exigindo ainda que façam um juízo sobre se a conduta é apenas ilegal ou manifestamente ilegal.

Portanto, percebe-se que o diploma alemão ora analisado não promoveu mudanças profundas na esperada “regulação do meio digital”: a maior parte dos conteúdos indisponibilizados ainda o são com base nas diretrizes da plataforma. No entanto, pode trazer prejuízos para o debate democrático no meio digital, com essa alocação legal de um poder de controle de discurso às redes sociais. Assim, eventuais benefícios trazidos pelo diploma não compensam as suas aparentes falhas. O que parece ser o mais acertado e adequado nele é a exigência de maior transparência por parte das redes sociais, com a elaboração de relatórios.

Conclusão

O sistema brasileiro de regulação da internet, inaugurado pelo Marco Civil, pode parecer leniente quanto à publicação de conteúdos ilegais on-line; aliás, um provedor de aplicação (como, no caso, uma rede social) só poderia ser responsabilizado caso se recusasse a cumprir uma decisão judicial que determinasse a exclusão de uma publicação, salvo nas exceções feitas.

Contudo, ao se analisar um sistema jurídico que adotou um regime de responsabilização distinto, mais severo, percebe-se que o resultado obtido não é satisfatório. Os provedores de redes sociais, ainda que ameaçados por multas milionárias, acabaram por remover mais aquilo que está em desacordo com sua política interna. Ainda que se imponha maior celeridade ao processo de análise, e que certos conteúdos que antes não seriam removidos passem a ser, as consequências negativas de tal disposição não compensam os parcos ganhos. A propósito, além dos riscos para a liberdade de expressão, há a alocação de um poder excessivo nas mãos dos provedores, que passam a exercer a função de interpretação da lei (e não somente de suas diretrizes internas), o que deveria ser feito somente pelo Poder Judiciário.

Portanto, com relação à regulação do conteúdo on-line, o Marco Civil não deve ser modificado. Entretanto, mostrar-se-ia extremamente benéfica a incorporação de exigências formais promovidas pelo NetzDG. Nesse sentido, destacam-se a obrigação de que sejam disponibilizados formulários para a denúncia de conteúdos, bem como de elaboração de relatórios de transparência, que mostrem as ações tomadas ante essas denúncias. Tais medidas poderiam gerar maior pressão da própria sociedade civil para que as redes sociais cumpram suas diretrizes, sem provocar os prejuízos que o NetzDG traz.

REFERÊNCIAS

  • ALEMANHA. Bundesamt für Justiz erlässt Bußgeldbescheid gegen Facebook. Bundesamt für Justiz, Bonn, 3 jul. 2019. Disponível em: Disponível em: https://www.bundesjustizamt.de/DE/Presse/Archiv/2019/20190702.html?nn=3449818 Acesso em: 18 ago. 2020.
    » https://www.bundesjustizamt.de/DE/Presse/Archiv/2019/20190702.html?nn=3449818
  • ALEMANHA. Landgericht Würzburg. Case 11 O 2338/16 UVR. Würzbug, Deutschland, 7 mar. 2017a.
  • ALEMANHA. Netzwerkdurchsetzungsgesetz vom 1. September 2017 (BGBl. I S. 3352) Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (NetzDG). Bundesgesetzblatt Jahrgang 2017 Teil I Nr. 61, ausgegeben am 07 nov. 2017b, Seite 3352.
  • ALEMANHA. Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz - NetzDG) Drucksache 18/12356. Deutscher Bundestag, 18. Wahlperiode, Berlin, 16 maio 2017c. Disponível em: Disponível em: https://dipbt.bundestag.de/doc/btd/18/123/1812356.pdf Acesso em: 30 jul. 2020.
    » https://dipbt.bundestag.de/doc/btd/18/123/1812356.pdf
  • ALEMANHA. Gemeinsam gegen Hassbotschaften Von der Task Force „Umgang mit rechtswidrigen Hassbotschaften im Internet“ vorgeschlagene Wege zur Bekämpfung von Hassinhalten im Netz. Bundesministerium der Justiz und für Verbraucherschutz, Berlin, 15 dez. 2015. Disponível em: Disponível em: https://www.bmjv.de/SharedDocs/Downloads/DE/News/Artikel/12152015_TaskForceErgebnispapier.pdf?__blob=publicationFile&v=2 Acesso em: 23 jul. 2020.
    » https://www.bmjv.de/SharedDocs/Downloads/DE/News/Artikel/12152015_TaskForceErgebnispapier.pdf?__blob=publicationFile&v=2
  • ALEMANHA. Telemediengesetz vom 26. Februar 2007 (BGBl. I S. 179) Telemediengesetz (TMG). Bundesgesetzblatt Jahrgang 2007 Teil I Nr. 6, ausgegeben am 28.02.2007, Seite 179.
  • BASEDOW, Jürgen. Comparative Law and its Clients. The American Journal of Comparative Law, Oxford, v. 62, n. 4, p. 821-857, 2014. Disponível em: Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2391171 Acesso em: 21 jul. 2020.
    » https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2391171
  • BITKOM et al Declaration on Freedom of Expression In response to the adoption of the Network Enforcement Law („Netzwerkdurchsetzungsgesetz”) by the Federal Cabinet on April 5, Berlin, 2017. Digitale Gesellschaft e.V. Disponível em: Disponível em: https://deklaration-fuer-meinungsfreiheit.de/ Acesso em: 23 jul. 2020.
    » https://deklaration-fuer-meinungsfreiheit.de/
  • BRANCO, Sérgio. Fake news e os caminhos para fora da bolha. Revista Interesse Nacional, São Paulo, ano 10, n. 38, p. 51-61, ago.-out. 2017. Disponível em: Disponível em: https://interessenacional.com.br/fake-news-e-os-caminhos-para-fora-da-bolha/ Acesso em: 10 jan. 2023.
    » https://interessenacional.com.br/fake-news-e-os-caminhos-para-fora-da-bolha/
  • BRASIL. Superior Tribunal de Justiça (3. Turma.) Ação de Obrigação de Fazer. Recurso Especial 1.980.014 Relatora: Ministra Nancy Andrighi. Julgamento: 14 jun. 2022. Publicação: 21 jun. 2022.
  • BRASIL. Lei n. 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União, Brasília, DF, 24 abr. 2014.
  • BRASIL. Superior Tribunal de Justiça (3. Turma.) Ação de Obrigação de Fazer Cumulada com Indenização por Danos Morais. Recurso Especial 1.193.764 Relatora: Ministra Nancy Andrighi. Julgamento: 14 dez. 2010. Publicação: 8 ago. 2011.
  • CLAUSSEN, Victor. Fighting Hate Speech and Fake News. The Network Enforcement Act (NetzDG) in Germany in the Context of European Legislation. Rivista di Diritto dei Media, Milão, v. 4, n. 2, p. 110--136, out. 2018. Disponível em: Disponível em: http://www.medialaws.eu/rivista/fighting-hate-speech-and-fake-news-the-network-enforcement-act-netzdg-in-germany-in-the-context-of-european-legislation/ Acesso em: 20 jul. 2020.
    » http://www.medialaws.eu/rivista/fighting-hate-speech-and-fake-news-the-network-enforcement-act-netzdg-in-germany-in-the-context-of-european-legislation/
  • DEUTSCHE WELLE. Alemanha registra 1,1 milhão de refugiados em 2015. Deutsche Welle, 6 jan. 2016. Disponível em: Disponível em: https://www.dw.com/pt-br/alemanha-registra-11-milh%C3%A3o-de-refugiados-em-2015/a-18963840 Acesso em: 22 jul. 2020.
    » https://www.dw.com/pt-br/alemanha-registra-11-milh%C3%A3o-de-refugiados-em-2015/a-18963840
  • DUTRA, Deo Campos. Método(s) em direito comparado. Revista da Faculdade de Direito - UFPR, Curitiba, v. 61, n. 3, p. 189-212, set.-dez. 2016. Disponível em: Disponível em: https://revistas.ufpr.br/direito/article/view/46620 Acesso em: 18 ago. 2020.
    » https://revistas.ufpr.br/direito/article/view/46620
  • ECHIKSON, William; KNODT, Olivia. Germany’s NetzDG: A Key Test for Combatting Online Hate. Centre for European Policy Studies (CEPS), [s.l.], n. 2018/09, nov. 2018. Disponível em: Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300636#:~:text=Germa’y’s%20Network%20Enforcement%20Act%2C%20or,failure%20to%20delete%20illegal%20content Acesso em: 21 jul. 2020.
    » https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3300636#:~:text=Germa’y’s%20Network%20Enforcement%20Act%2C%20or,failure%20to%20delete%20illegal%20content
  • FACEBOOK. NetzDG Transparency Report: July 2020. Facebook Transparency, jul. 2020. Disponível em: Disponível em: https://about.fb.com/wp-content/uploads/2020/07/facebook_netzdg_July_2020_English.pdf Acesso em: 1o ago. 2020.
    » https://about.fb.com/wp-content/uploads/2020/07/facebook_netzdg_July_2020_English.pdf
  • FACEBOOK. NetzDG Transparency Report: July 2018. Facebook Transparency, jul. 2018. Disponível em: Disponível em: https://about.fb.com/wp-content/uploads/2018/07/facebook_netzdg_july_2018_english-1.pdf Acesso em: 10 jan. 2023.
    » https://about.fb.com/wp-content/uploads/2018/07/facebook_netzdg_july_2018_english-1.pdf
  • GAGLIONI, Cesar. O boicote dos anunciantes ao Facebook e ao Twitter. Nexo, São Paulo, 29 jun. 2020. Disponível em: Disponível em: https://www.nexojornal.com.br/expresso/2020/06/29/O-boicote-dos-anunciantes-ao-Facebook-e-ao-Twitter Acesso em: 18 jul. 2020.
    » https://www.nexojornal.com.br/expresso/2020/06/29/O-boicote-dos-anunciantes-ao-Facebook-e-ao-Twitter
  • GOOGLE. Cumprimento das diretrizes da comunidade do YouTube Google Transparency Report, ago. 2020a. Disponível em: Disponível em: https://transparencyreport.google.com/youtube-policy/removals?videos_by_country=period:Y2020Q1;region:;p:1&lu=videos_by_country Acesso em: 9 ago. 2020.
    » https://transparencyreport.google.com/youtube-policy/removals?videos_by_country=period:Y2020Q1;region:;p:1&lu=videos_by_country
  • GOOGLE. Entfernungen von Inhalten nach dem Netzwerkdurchsetzungsgesetz Google Transparenzbericht, jul. 2020b. Disponível em: Disponível em: https://transparencyreport.google.com/netzdg/youtube?hl=de Acesso em: 1o ago. 2020.
    » https://transparencyreport.google.com/netzdg/youtube?hl=de
  • HELDT, Amélie. Reading between the Lines and the Numbers: An Analysis of the First NetzDG Reports. Internet Policy Review, Berlim, v. 8, n. 2, 2019. Disponível em: Disponível em: https://policyreview.info/articles/analysis/reading-between-lines-and-numbers-analysis-first-netzdg-reports Acesso em: 21 jul. 2020.
    » https://policyreview.info/articles/analysis/reading-between-lines-and-numbers-analysis-first-netzdg-reports
  • HUMAN RIGHTS WATCH. Germany: Flawed Social Media Law. Human Rights Watch, Nova York, 14 fev. 2018. Disponível em: Disponível em: https://www.hrw.org/news/2018/02/14/germany-flawed-social-media-law#:~:text=(Berlin)%20%E2%80%93%20The%20new%20German,Human%20Rights%20Watch%20said%20today Acesso em: 30 jul. 2020.
    » https://www.hrw.org/news/2018/02/14/germany-flawed-social-media-law#:~:text=(Berlin)%20%E2%80%93%20The%20new%20German,Human%20Rights%20Watch%20said%20today
  • JUGENDSCHUTZ.NET. Löschung rechtswidriger Hassbeiträge bei Facebook, YouTube und Twitter. 2017. Disponível em: Disponível em: https://www.bmj.de/SharedDocs/Downloads/DE/News/Artikel/03142017_Monitoring_jugendschutz.net.pdf?__blob=publicationFile&v=3 Acesso em: 23 jul. 2020.
    » https://www.bmj.de/SharedDocs/Downloads/DE/News/Artikel/03142017_Monitoring_jugendschutz.net.pdf?__blob=publicationFile&v=3
  • KASAKOWSKIJ, Thomas et al Network Enforcement as Denunciation Endorsement? A Critical Study on Legal Enforcement in Social Media. Telematics and Informatics, [s.l], v. 46, 2020. Disponível em: Disponível em: https://www.sciencedirect.com/science/article/pii/S0736585319308093?via%3Dihub Acesso em: 21 jul. 2020.
    » https://www.sciencedirect.com/science/article/pii/S0736585319308093?via%3Dihub
  • KAYE, David. Mandate of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression OL DEU 1/2017. Office of the High Commissioner for Human Rights, Geneva, Switzerland, 1o jun. 2017. Disponível em: Disponível em: https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf Acesso em: 30 jul. 2020.
    » https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-DEU-1-2017.pdf
  • LADEUR, Karl-Heinz; GOSTOMZYK, Tobias. Gutachten zur Verfassungsmäßigkeit des Entwurfs eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz - NetzDG) i.d.F. vom 16. Mai 2017 - BT-Drs. 18/12356. Erstattet auf Ansuchen des Bitkom, maio 2017. Disponível em: Disponível em: https://www.cr-online.de/NetzDG-Gutachten-Gostomzyk-Ladeur.pdf Acesso em: 30 jul. 2020.
    » https://www.cr-online.de/NetzDG-Gutachten-Gostomzyk-Ladeur.pdf
  • LEMOS, Ronaldo. O Oversight Board do Facebook. Instituto Tecnologia e Sociedade, Rio de Janeiro, 12 maio 2020. Disponível em: Disponível em: https://itsrio.org/pt/artigos/o-oversight-board-do-facebook/ Acesso em: 30 jul. 2022.
    » https://itsrio.org/pt/artigos/o-oversight-board-do-facebook/
  • MCHANGAMA, Jacob; FISS, Joelle. The Digital Berlin Wall: How Germany (Accidentally) Created a Prototype for Global Online Censorship. Copenhagen: Justitia and Authors, 2019.
  • MULHOLLAND, Caitlin. Responsabilidade civil indireta dos provedores de serviço de internet e sua regulação no Marco Civil da Internet. In: ENCONTRO NACIONAL DO CONPEDI, 24., 2015, Florianópolis. Anais.. Florianópolis: CONPEDI, 2015. p. 479-502.
  • OLIVEIRA, Filipe. Facebook chega a 127 milhões de usuários mensais no Brasil. Folha de S.Paulo, São Paulo, 18 jul. 2018. Disponível em: Disponível em: https://www1.folha.uol.com.br/tec/2018/07/facebook-chega-a-127-milhoes-de-usuarios-mensais-no-brasil.shtml Acesso em: 5 ago. 2020.
    » https://www1.folha.uol.com.br/tec/2018/07/facebook-chega-a-127-milhoes-de-usuarios-mensais-no-brasil.shtml
  • PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Rio de Janeiro: Jorge Zahar, 2011.
  • PAUL, Kari. Zuckerberg Defends Facebook as Bastion of ‘Free Expression’ in Speech. The Guardian, Londres, 17 out. 2019. Disponível em: Disponível em: https://www.theguardian.com/technology/2019/oct/17/mark-zuckerberg-facebook-free-expression-speech Acesso em: 21 jul. 2020.
    » https://www.theguardian.com/technology/2019/oct/17/mark-zuckerberg-facebook-free-expression-speech
  • REITZ, John C. How to Do Comparative Law. The American Journal of Comparative Law, Oxford, v. 46, n. 4, p. 617-636, 1998.
  • SCHMITZ, Sandra; BERNDT, Christian. The German Act on Improving Law Enforcement on Social Networks (NetzDG): A Blunt Sword? Working Paper, p. 1-41, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3306964 Acesso em: 20 jul. 2020.
    » https://ssrn.com/abstract=3306964
  • SOUZA, Carlos Affonso; LEMOS, Ronaldo. Marco Civil da Internet: construção e aplicação. Juiz de Fora: Editar Editora Associada, 2016. Disponível em: Disponível em: https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf Acesso em: 21 jul. 2020.
    » https://itsrio.org/wp-content/uploads/2017/02/marco_civil_construcao_aplicacao.pdf
  • TEFFÉ, Chiara Spadaccini de; MORAES, Maria Celina Bodin de. Redes sociais virtuais: privacidade e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar, Fortaleza, v. 22, n. 1, p. 108-146, jan.-abr. 2017. Disponível em: Disponível em: https://periodicos.unifor.br/rpen/article/view/6272/pdf Acesso em: 30 jul. 2022.
    » https://periodicos.unifor.br/rpen/article/view/6272/pdf
  • THEIL, Stefan. The German NetzDG: A Risk Worth Taking? Verfassungsblog, Berlim, 8 fev. 2018. Disponível em: Disponível em: https://verfassungsblog.de/the-german-netzdg-a-risk-worth-taking/ Acesso em: 23 jul. 2020.
    » https://verfassungsblog.de/the-german-netzdg-a-risk-worth-taking/
  • TWITTER. Twitter Netzwerkdurchsetzungsgesetzbericht: Januar - Juni 2020. Twitter Transparency Report, jul. 2020. Disponível em: Disponível em: https://cdn.cms-twdigitalassets.com/content/dam/transparency-twitter/data/download-netzdg-report/netzdg-jan-jun-2020.pdf Acesso em: 1o ago. 2020.
    » https://cdn.cms-twdigitalassets.com/content/dam/transparency-twitter/data/download-netzdg-report/netzdg-jan-jun-2020.pdf
  • TWITTER. Twitter Netzwerkdurchsetzungsgesetzbericht: Januar - Juni 2018. Twitter Transparency Report, jul. 2018. Disponível em: Disponível em: https://transparency.twitter.com/content/dam/transparency-twitter/archive/data/download-netzdg-report/netzdg-jan-jun-2020.pdf Acesso em: 10 jan. 2023.
    » https://transparency.twitter.com/content/dam/transparency-twitter/archive/data/download-netzdg-report/netzdg-jan-jun-2020.pdf
  • TWOREK, Heidi; LEERSSEN, Paddy. An Analysis of Germany’s NetzDG Law. First session of the Transatlantic High Level Working Group on Content Moderation Online and Freedom of Expression, Feb. 27-Mar. 3, 2019, Ditchley Park, U.K., 15 abr. 2019. Disponível em: Disponível em: https://www.ivir.nl/publicaties/download/NetzDG_Tworek_Leerssen_April_2019.pdf Acesso em: 21 jul. 2020.
    » https://www.ivir.nl/publicaties/download/NetzDG_Tworek_Leerssen_April_2019.pdf
  • UNIÃO EUROPEIA. Código de Conduta para a Luta Contra os Discursos Ilegais de Incitação ao Ódio em Linha Comissão Europeia, 31 maio 2016. Disponível em: Disponível em: https://ec.europa.eu/commission/presscorner/detail/pt/ip_20_1134 Acesso em: 24 out. 2022.
    » https://ec.europa.eu/commission/presscorner/detail/pt/ip_20_1134
  • UNIÃO EUROPEIA. Directive 2000/31/EC. Directive 2000/31/EC of the European Parliament and of the Council of 8 June 2000 on certain legal aspects of information society services, in particular electronic commerce, in the Internal Market (‘Directive on electronic commerce’). Official Journal L, [s.l.], v. 178, p. 1-16, 17 jul. 2000.
  • WISCHMEYER, Thomas. ‘What is Illegal Offline is Also Illegal Online’ - The German Network Enforcement Act 2017. In: PETKOVA, Bilyana; OJANEN, Tuomas (eds.). Fundamental Rights Protection Online: The Future Regulation of Intermediaries. [S.l.]: Edward Elgar, 2019. Disponível em: Disponível em: https://ssrn.com/abstract=3256498 Acesso em: 20 jul. 2020.
    » https://ssrn.com/abstract=3256498
  • 1
    Aqui, as redes sociais são entendidas como uma espécie de “provedores de aplicações de internet”, na nomenclatura utilizada pelo Marco Civil da Internet. Assim, não será analisada a responsabilidade dos provedores de conexão, nem de outras formas de provedores. Ademais, dentro da noção de “provedores de aplicações de internet”, somente serão estudadas as redes sociais, de modo que outras aplicações, como serviços de busca, não se incluem no escopo deste artigo.
  • 2
    O artigo, vale dizer, não se debruçará sobre os atuais projetos de lei em trâmite no Congresso brasileiro, tendo em vista que, neste momento, os PLs ainda estão em discussão. Ademais, o foco destes é a regulação sobretudo de comportamento, e não de conteúdo.
  • 3
    De acordo com provisões do Gesetz über Ordnungswidrigkeiten (OWiG - Código de Infrações Administrativas), a multa de 5 milhões pode chegar a até 50 milhões de euros, para pessoas jurídicas.
  • 4
    Este artigo foi encaminhado para publicação no dia 18 de agosto de 2020. Dessa forma, foram considerados, para análise, apenas os relatórios publicados até referida data.
  • 5
    A conduta adotada pela empresa, inclusive, levou à imposição de uma multa, com fulcro na quarta seção do NetzDG, no montante de 2 milhões de euros, em julho de 2019. A multa, imposta pelo Bundesamt für Justiz, baseou-se sobretudo na alegação de que o formulário disponibilizado pelo Facebook para denúncias com base na lei não era transparente o suficiente (ALEMANHA, 2019ALEMANHA. Bundesamt für Justiz erlässt Bußgeldbescheid gegen Facebook. Bundesamt für Justiz, Bonn, 3 jul. 2019. Disponível em: Disponível em: https://www.bundesjustizamt.de/DE/Presse/Archiv/2019/20190702.html?nn=3449818 . Acesso em: 18 ago. 2020.
    https://www.bundesjustizamt.de/DE/Presse...
    ).
  • Como citar este artigo: BREGA, Gabriel Ribeiro. A regulação de conteúdo nas redes sociais: uma breve análise comparativa entre o NetzDG e a solução brasileira. Revista Direito GV, São Paulo, v. 19, e2305, 2023. https://doi.org/10.1590/2317-6172202305

Datas de Publicação

  • Publicação nesta coleção
    20 Fev 2023
  • Data do Fascículo
    2023

Histórico

  • Recebido
    18 Ago 2020
  • Aceito
    06 Set 2022
Fundação Getulio Vargas, Escola de Direito de São Paulo Rua Rocha, 233, 11º andar, 01330-000 São Paulo/SP Brasil, Tel.: (55 11) 3799 2172 - São Paulo - SP - Brazil
E-mail: revistadireitogv@fgv.br