Mídias sociais, ódio, mentiras e a busca da verdade possível

Mão toca celular com touch screen em fundo preto
Articulistas afirmam que a educação midiática e a conscientização das pessoas de boa-fé são medidas decisivas para o uso construtivo das novas tecnologias; na imagem, pessoa usando celular

A democracia constitucional foi a ideologia que prevaleceu no século 20, na maior parte do planeta, superando os projetos alternativos que se apresentaram: comunismo, fascismo, nazismo, regimes militares e fundamentalismo religioso. O constitucionalismo democrático gira em torno de duas ideias principais que se fundiram no final do século 20.

O “constitucionalismo”, herdeiro das revoluções liberais na Inglaterra, nos Estados Unidos da América e na França, expressa as ideias de poder limitado, Estado de Direito e respeito aos direitos fundamentais. A “democracia”, por sua vez, é o regime de soberania popular, eleições livres e justas e governo da maioria. Em muitos países, a democracia só se consolidou verdadeiramente ao longo do século 20, com o sufrágio universal garantido pelo fim das restrições à participação política baseada em condição social, religião, raça, sexo ou nível de educação[1].

As democracias contemporâneas são feitas de votos, direitos e razões. Elas não se limitam à integridade dos processos eleitorais, mas exigem, também, o respeito pelos direitos fundamentais de todos os cidadãos e um debate público permanente que informa e legitima as decisões políticas[2]. Para garantir a proteção desses 3 elementos essenciais, a maioria dos regimes democráticos inclui em sua estrutura constitucional uma Suprema Corte ou um tribunal constitucional com jurisdição para arbitrar as tensões inevitáveis que surgem entre democracia e constitucionalismo, ou seja, entre soberania popular e valores constitucionais[3].

Tais tribunais são, em última análise, as instituições responsáveis por proteger os direitos fundamentais e as regras do jogo democrático contra qualquer tentativa de abuso de poder por parte da maioria. Experiências recentes na Hungria, Polônia, Turquia, Venezuela e Nicarágua mostram que, quando falham em cumprir esse papel, a democracia entra em colapso ou sofre grandes retrocessos[4].

Nos últimos anos, vários eventos desafiaram a prevalência do constitucionalismo democrático em muitas partes do mundo. Esse fenômeno tem sido caracterizado como “recessão democrática”[5], “retrocesso democrático”[6], “constitucionalismo abusivo”[7], “autoritarismo competitivo”[8], “democracia iliberal”[9] e “legalismo autocrático”[10]. Mesmo democracias consolidadas enfrentaram momentos de turbulência e descrédito institucional[11], à medida que o mundo testemunhou a ascensão de uma onda populista autoritária, antipluralista e anti-institucional que representa séria ameaça à democracia.

Populismo pode ser de direita ou de esquerda[12], mas a onda recente tem sido caracterizada pela prevalência do extremismo de direita, frequentemente racista, xenófobo, misógino e homofóbico[13]. Enquanto no passado existia uma Internacional Comunista, hoje, é a extrema direita que tem uma grande rede global[14]. A marca do populismo de direita é a divisão da sociedade em nós –o povo puro, decente e conservador– e eles –as elites corruptas, liberais e cosmopolitas.

O populismo autoritário decorre dos desvãos da democracia, das promessas não cumpridas de oportunidade e prosperidade para todos[15]. São muitos os fatores que levam a essa frustração democrática, dos quais se destacam 3:

O populismo extremista autoritário adota, muitas vezes, estratégias semelhantes em diferentes partes do mundo, incluindo: 1) comunicação direta com apoiadores, mais recentemente por meio das redes sociais; 2) contorno ou cooptação das instituições intermediárias que fazem a interface entre a sociedade e o governo, como o Legislativo, a imprensa e a sociedade civil; e 3) ataques às Supremas Cortes e aos tribunais constitucionais, bem como tentativas de capturá-los por meio da nomeação de juízes submissos.[17]

Como sugere o título original deste artigo (“Democracia, mídias sociais e liberdade de expressão: ódio, mentiras e a busca da verdade possível”, já publicado anteriormente no exterior, em inglês), uma das principais preocupações nessa temática é o uso de campanhas de desinformação, discursos de ódio, crimes contra a honra, mentiras e teorias conspiratórias para avançar esses objetivos antidemocráticos. Essas táticas ameaçam a democracia e as eleições livres e justas, porque enganam os eleitores, violam direitos fundamentais, silenciam minorias e distorcem o debate público, minando os valores que justificam a proteção especial da liberdade de expressão.

A “decadência da verdade” e a “polarização dos fatos” desacreditam as instituições e, consequentemente, fomentam a desconfiança na democracia”[18].

O mundo vive sob a égide da 3ª revolução industrial, também conhecida como a revolução tecnológica ou digital[20]. Algumas de suas principais características são a massificação de computadores pessoais, a universalização dos telefones celulares inteligentes e, acima de tudo, a internet, conectando bilhões de pessoas no planeta.

Um dos principais subprodutos da revolução digital e da internet foi o surgimento de plataformas de mídias sociais como Facebook, Instagram, YouTube, TikTok e aplicativos de mensagens como o WhatsApp e o Telegram. Vivemos em um mundo de apps, algoritmos, inteligência artificial e inovação em ritmo acelerado, onde nada parece realmente novo por muito tempo. Esse é o cenário em que se desenrola a narrativa a seguir.

A internet revolucionou o mundo da comunicação interpessoal e social, expandiu exponencialmente o acesso à informação e ao conhecimento e criou uma esfera pública na qual qualquer um pode expressar ideias, opiniões e disseminar fatos[21].

Antes da internet, a participação no debate público dependia, principalmente, da imprensa profissional[22], que investigava fatos, seguia padrões da técnica e da ética jornalística[23] e era responsável por danos se publicasse informações falsas, deliberadamente ou por negligência[24]. Havia controle editorial e responsabilidade civil relativamente à qualidade e à veracidade do que era publicado.

Isso não significa que fosse um mundo perfeito. O número de meios de comunicação é limitado e nem sempre plural, empresas jornalísticas têm seus próprios interesses e nem todas distinguem com o cuidado necessário fato de opinião. Ainda assim, havia um grau mais refinado de controle sobre o que se tornava público, bem como consequências negativas pela publicação de notícias falsas ou discursos de ódio.

A internet, com o surgimento de sites, blogs pessoais e redes sociais, revolucionou esse universo. Criou comunidades on-line para textos, imagens, vídeos e links criados pelo usuário, publicados sem controle editorial e sem custo. Tais inovações amplificaram o número de pessoas que participam do debate público, diversificaram as fontes de informação e aumentaram exponencialmente o acesso a elas[25].

Essa nova realidade deu voz às minorias, à sociedade civil, aos políticos, aos agentes públicos, aos influenciadores digitais e permitiu que as demandas por igualdade e democracia adquirissem dimensões globais. Tudo isso representou uma poderosa contribuição para o dinamismo político e a resistência ao autoritarismo, e estimulou a criatividade, o conhecimento científico e as trocas comerciais[26]. Cada vez mais, as comunicações políticas, sociais e culturais relevantes ocorrem por meio dessa tecnologia.

No entanto, o surgimento das redes sociais também levou a um aumento exponencial na disseminação de discurso abusivo e criminoso. Embora essas plataformas não tenham criado desinformação, discursos de ódio ou discursos que atacam a democracia, a capacidade de publicar livremente, sem controle editorial e com pouca ou nenhuma responsabilidade, aumentou o uso dessas táticas. Além disso, e mais fundamentalmente, os modelos de negócio das plataformas agravaram o problema pela utilização de algoritmos que controlam e distribuem conteúdo on-line.

A capacidade de participar e de ser ouvido no discurso público on-line é atualmente definida pelos algoritmos de moderação de conteúdo das grandes empresas de tecnologia. Apesar de as plataformas digitais terem se apresentado, inicialmente, como espaços neutros, onde os usuários poderiam publicar livremente, elas na verdade desempenham funções legislativas, executivas e judiciais, pois 1) instituem unilateralmente as regras de discurso em seus termos e condições; 2) definem, por seus algoritmos, como o conteúdo é distribuído e moderado e, por fim; 3) decidem como essas regras são aplicadas[27].

Especificamente, as plataformas digitais dependem de algoritmos para duas funções diferentes: recomendar e moderar conteúdo[28]. Primeiramente, um aspecto fundamental do serviço que oferece envolve a curadoria do conteúdo disponível, de modo a proporcionar a cada usuário uma experiência personalizada e aumentar o tempo gasto on-line. Elas recorrem a algoritmos de deep learning que monitoram cada ação na plataforma, extraem dados e preveem qual conteúdo manterá um usuário específico engajado e ativo, com base em sua atividade anterior ou de usuários semelhantes[29].

A transição de um mundo de escassez de informação para um mundo de abundância de informação criou uma concorrência acirrada pela atenção do usuário –esse, sim, o recurso escasso na Era Digital[30]. Portanto, o poder de modificar o ambiente informacional de uma pessoa tem um impacto direto no seu comportamento e nas suas crenças. E como os sistemas de IA podem rastrear o histórico on-line de um indivíduo, eles podem adaptar mensagens específicas para maximizar o impacto.

Mais importante ainda, eles monitoram como o usuário interage com a mensagem personalizada, utilizando esse feedback para influenciar a segmentação de conteúdo futuro, tornando-se cada vez mais eficazes na moldagem de comportamentos[31]. Dado que os seres humanos se envolvem mais com conteúdo polarizador e provocativo, esses algoritmos acabam por provocar emoções fortes, incluindo raiva[32]. O poder de organizar o conteúdo on-line, portanto, tem impactos diretos sobre a liberdade de expressão, o pluralismo e a democracia[33].

Além dos sistemas de recomendação, as plataformas também dependem de algoritmos para a moderação de conteúdo, que consiste na prática de classificar o conteúdo para verificar se viola os padrões da comunidade[34]. Como mencionado, o crescimento das redes sociais e seu uso por pessoas ao redor do mundo permitiram a propagação da ignorância, mentiras e a prática de crimes de diferentes naturezas com pouco custo e quase nenhuma responsabilização, ameaçando a estabilidade até mesmo de democracias duradouras.

Nesse cenário, tornou-se inevitável a criação e imposição de termos e condições que definem os valores e normas que cada plataforma deseja para sua comunidade digital e que pautarão a moderação do discurso[35]. Mas a quantidade potencialmente infinita de conteúdo publicado on-line significa que esse controle não pode ser exercido exclusivamente por seres humanos.

Algoritmos de moderação de conteúdo otimizam a varredura do material publicado on-line para identificar violações dos padrões da comunidade ou termos de serviço em escala e aplicar medidas que variam da remoção até a redução/amplificação do alcance ou inclusão de esclarecimentos ou referências a informações alternativas.

As plataformas frequentemente dependem de 2 modelos algorítmicos para moderação de conteúdo. O 1º é o modelo de detecção de reprodução, que usa o hashing, uma tecnologia que atribui um ID único a textos, imagens e vídeos, para identificar reproduções idênticas de conteúdo previamente rotulado como indesejado[36]. O 2º sistema, o modelo preditivo, usa técnicas de machine learning para identificar potenciais ilegalidades em conteúdo novo e não classificado[37]. O machine learning é um subtipo de inteligência artificial que depende de algoritmos treinados em vez de programados, capazes de aprender a partir de dados sem codificação explícita[38]. Embora úteis, ambos os modelos têm limitações.

O modelo de detecção de reprodução é ineficiente para conteúdos como discurso de ódio e desinformação, onde o potencial de novas e diferentes publicações é praticamente ilimitado e os usuários podem fazer alterações deliberadas para evitar a detecção[39].

O modelo preditivo, por sua vez, ainda é limitado em sua capacidade de lidar com situações às quais não foi exposto durante o treinamento, principalmente por uma incapacidade de entender significados e levar em conta considerações contextuais que influenciam a legitimidade do discurso[40]. Além disso, os algoritmos de machine learning também dependem de dados coletados do mundo real e podem incorporar preconceitos ou vieses, levando a aplicações assimétricas do filtro. E como os conjuntos de dados de treinamento são muito grandes, é difícil auditá-los para detectar essas falhas.

Apesar dessas limitações, os algoritmos continuarão a ser um recurso crucial no monitoramento de conteúdo, dada a escala das atividades on-line[41]. Só nos últimos 2 meses de 2020, o Facebook aplicou alguma medida de moderação de conteúdo a 105 milhões de publicações, e o Instagram, a 35 milhões. O YouTube tem 500 horas de vídeo carregadas por minuto e removeu mais de 9,3 milhões de vídeos.

No 1º semestre de 2020, o X (ex-Twitter) analisou reclamações relacionadas a 12,4 milhões de contas em potencial violação de suas regras e removeu 1,9 milhão[42]. Portanto, o monitoramento humano é impossível, e os algoritmos são uma ferramenta necessária para reduzir a disseminação de conteúdo ilícito e prejudicial.

Responsabilizar as plataformas por erros ocasionais nesses sistemas criaria incentivos errados para abandonar os algoritmos na moderação de conteúdo, com a consequência negativa de aumentar significativamente a propagação do discurso indesejado. Por outro lado, reivindicações genéricas para que as plataformas implementem algoritmos para otimizar a moderação de conteúdo, ou leis que imponham prazos muito curtos para responder a solicitações de remoção enviadas pelos usuários, podem criar pressão excessiva para o uso desses sistemas imprecisos em uma escala maior. Reconhecer as limitações dessa tecnologia é fundamental para uma regulamentação precisa.

Um dos impactos mais marcantes deste novo ambiente informacional é o aumento exponencial na escala das comunicações sociais e na circulação de notícias. Ao redor do mundo, jornais, publicações impressas e estações de rádio têm alguns milhares de leitores e ouvintes[43]. A televisão atinge milhões de espectadores, embora diluídos em dezenas ou centenas de canais.

Por outro lado, o Facebook tem cerca de 3 bilhões de usuários ativos[44]. O YouTube tem 2,5 bilhões de contas[45]. O WhatsApp, mais de 2 bilhões[46]. Os números são desconcertantes. No entanto, como já assinalado, assim como democratizou o acesso ao conhecimento, à informação e ao espaço público, a revolução digital também introduziu consequências negativas que devem ser abordadas. São elas:

A imprensa profissional, tradicional e institucional é mais do que um negócio privado. Ela serve ao interesse público na busca pela verdade possível em um mundo plural e na disseminação de notícias, opiniões e ideias, condições indispensáveis para o exercício informado da cidadania.

O conhecimento e a verdade –nunca absolutos, mas sinceramente buscados– são elementos essenciais para o funcionamento de uma democracia constitucional. Os cidadãos precisam compartilhar um conjunto mínimo de fatos objetivos comuns a partir dos quais formam os seus próprios juízos de valor. Se eles não puderem aceitar os mesmos fatos, o debate público se torna impossível.

Intolerância e violência são produtos da incapacidade de se comunicar. Daí, a importância das “instituições do conhecimento”, como universidades, entidades de pesquisa e imprensa institucional. Sintomaticamente, em diferentes partes do mundo, a imprensa é um dos poucos negócios privados especificamente mencionados na Constituição. Apesar de sua importância para a sociedade e para a democracia, pesquisas revelam o declínio no prestígio do ensino superior e da imprensa[50]. Isso é preocupante.

No início da revolução digital, havia a crença de que a internet deveria ser um espaço livre, aberto e não regulado, tanto do ponto de vista econômico e comercial, quanto da perspectiva da liberdade de expressão. Com o tempo, surgiram preocupações de diferentes ordens, e a necessidade de regulação da internet gradualmente se tornou um consenso, com abordagens propostas em diferentes áreas[51], incluindo:

Encontrar o equilíbrio adequado entre a indispensável preservação da liberdade de expressão, de um lado, e a repressão do conteúdo ilegal nas redes sociais, de outro, é um dos problemas mais complexos de nossa geração. A liberdade de expressão é um direito fundamental incorporado em praticamente todas as constituições contemporâneas e, em muitos países, é considerada uma liberdade preferencial, que deve prevalecer prima facie quando em confronto com outros valores.

Várias razões procuram justificar a sua proteção especial, incluindo: 1) a busca pela verdade possível em uma sociedade aberta e plural; 2) como elemento essencial para a democracia, pois permite a livre circulação de ideias, informações e pontos de vista que informam a opinião pública e o voto; e 3) como elemento essencial da dignidade humana, permitindo a expressão da personalidade de cada pessoa.

A regulação das plataformas digitais não pode comprometer esses valores. Pelo contrário, deve visar a sua proteção e fortalecimento. No entanto, na Era Digital, esses mesmos valores que, historicamente, justificaram a proteção reforçada da liberdade de expressão, agora, podem justificar a sua regulação. Como o secretário-geral da ONU, António Guterres, registrou com propriedade: “A capacidade de promover desinformação em larga escala e minar fatos cientificamente estabelecidos é um risco existencial para a humanidade”[52].

Dois aspectos do modelo de negócio da internet são particularmente problemáticos. O 1º é que, embora o acesso à maioria das plataformas e aplicativos tecnológicos seja gratuito, os usuários pagam pelo acesso com sua privacidade[53]. Como Lawrence Lessig observou, assistimos televisão, mas a internet nos assiste. Tudo o que fazemos on-line é monitorado e monetizado. Os dados são o novo ouro[54].

O 2º aspecto é que os algoritmos são programados para maximizar o tempo gasto on-line, o que muitas vezes leva à amplificação de conteúdo provocativo, radical e agressivo. Isso compromete a liberdade de expressão, porque, ao visar ao engajamento, os algoritmos sacrificam a busca pela verdade –com a ampla circulação de fake news–, a democracia –com ataques às instituições e defesa de golpes e autoritarismo– e a dignidade humana –com ofensas, ameaças, racismo e outros.

A busca por atenção e engajamento para obter receita nem sempre é compatível com os valores que sustentam a proteção da liberdade de expressão.

Os modelos de regulação de plataformas podem ser amplamente classificados em 3 categorias:

Esse artigo defende o 3º modelo, com uma combinação adequada de responsabilidades governamentais e privadas. O cumprimento das regras deve ser supervisionado por um comitê independente, com minoria de representantes do governo e maioria de representantes do setor empresarial, academia, entidades de tecnologia, usuários e sociedade civil.

O quadro regulatório deve visar à redução da assimetria de informações entre as plataformas e os usuários, salvaguardar o direito fundamental à liberdade de expressão de intervenções privadas ou estatais indevidas e proteger e fortalecer a democracia. As limitações técnicas atuais dos algoritmos de moderação de conteúdo exploradas acima e a discordância substancial sobre o que deve ser considerado ilegal ou prejudicial trazem uma implicação inevitável: o objetivo da regulamentação deve ser encontrar um modelo capaz de otimizar o equilíbrio entre os direitos fundamentais dos usuários e das plataformas, reconhecendo que sempre haverá casos em que o consenso é inatingível.

O foco da regulamentação deve ser o desenvolvimento de procedimentos adequados para a moderação de conteúdo, capazes de minimizar erros e legitimar decisões, mesmo quando alguém discorda do resultado substantivo[55].

Com essas premissas como pano de fundo, a proposta de regulação formulada aqui é dividida em 3 níveis: 1) o modelo apropriado de responsabilidade intermediária para conteúdo criado pelo usuário; 2) deveres procedimentais para a moderação de conteúdo; e 3) deveres mínimos para moderar conteúdo que represente ameaças concretas à democracia e/ou à liberdade de expressão em si.

Existem 3 regimes principais de responsabilidade da plataforma pelo conteúdo de terceiros.

No modelo de responsabilidade objetiva, as plataformas são responsáveis por todas as postagens feitas pelos usuários. Como as plataformas não têm controle editorial sobre o que é postado e não têm condições materiais de supervisionar milhões de postagens feitas diariamente, esse regime seria potencialmente destrutivo e, por isso, não foi adotado por nenhuma democracia.

No modelo de responsabilidade subjetivadepois de notificação extrajudicial, a responsabilidade das plataformas surgiria se elas não agissem para remover o conteúdo após uma notificação extrajudicial dos usuários.

Por fim, na responsabilidade subjetiva depois de decisão judicial, as plataformas seriam responsáveis pelo conteúdo postado pelos usuários só em caso de não conformidade com uma ordem judicial de remoção do conteúdo.

Esse último modelo foi adotado no Brasil com o Marco Civil da Internet. A única exceção na legislação brasileira a essa regra geral é a chamada pornografia de vingança[56]: se houver violação da intimidade resultante da divulgação, sem consentimento dos participantes, de imagens, vídeos ou outros materiais contendo nudez privada ou atos sexuais privados, a notificação extrajudicial é suficiente para criar uma obrigação de remoção do conteúdo sob pena de responsabilidade.

Em nossa opinião, a regra geral estipulada no modelo brasileiro, embora possa comportar exceções, é a que equilibra mais adequadamente os direitos fundamentais envolvidos[57]. Como mencionado, nos casos mais complexos relacionados à liberdade de expressão, as pessoas vão discordar sobre a legalidade do discurso.

Regras que responsabilizam as plataformas por não remover o conteúdo depois de uma simples notificação do usuário criam incentivos para a remoção excessiva de qualquer conteúdo potencialmente controverso, restringindo excessivamente a liberdade de expressão dos usuários. Ou seja: haveria um incentivo para remover todo o conteúdo que ofereça risco de ser considerado ilícito pelos tribunais para evitar a responsabilidade[58], criando um ambiente de autocensura.

No entanto, esse regime de responsabilidade deve coexistir com uma estrutura regulatória mais ampla impondo princípios, limites e deveres à moderação de conteúdo pelas plataformas digitais, tanto para aumentar sua legitimidade na aplicação de seus próprios termos e condições, quanto para minimizar os impactos potencialmente devastadores de discursos ilícitos ou prejudiciais.

As plataformas têm liberdade de iniciativa e de expressão para definirem suas próprias regras e decidirem o tipo de ambiente que desejam criar, bem como moderar conteúdo prejudicial que poderia afastar os usuários. No entanto, porque esses algoritmos de moderação de conteúdo são os novos governantes da esfera pública[59] e definem a capacidade de participar e ser ouvido no discurso público on-line, as plataformas devem atender a deveres procedimentais mínimos de transparência, auditoria, devido processo e isonomia.

2.a. Transparência e auditoria

As medidas de transparência e auditoria têm como principal objetivo garantir que as plataformas sejam responsabilizáveis (accountable) pelas decisões de moderação de conteúdo e pelos impactos de seus algoritmos. Elas fornecem aos usuários um maior entendimento e conhecimento sobre a intensidade com que as plataformas regulam o discurso, e dão aos órgãos de supervisão e aos pesquisadores informações para entender as ameaças advindas dos serviços digitais e o papel das plataformas em amplificá-las ou minimizá-las.

Impulsionado pelas demandas da sociedade civil, várias plataformas digitais já publicam relatórios de transparência. No entanto, a falta de normas vinculativas significa que esses relatórios têm lacunas relevantes, inexistindo verificação independente das informações fornecidas[60] nem tampouco padronização entre as plataformas, o que impede a análise comparativa[61].

Nesse contexto, iniciativas regulatórias que imponham requisitos e padrões mínimos são cruciais para tornar a supervisão mais eficaz. Por outro lado, critérios de transparência excessivamente amplos podem forçar as plataformas a adotarem regras de moderação de conteúdo mais simples para reduzir custos, com impacto negativo na precisão da moderação de conteúdo ou na qualidade da experiência do usuário[62].

Uma abordagem escalonada para a transparência, em que certas informações são públicas e outras informações são limitadas a órgãos de supervisão ou pesquisadores previamente qualificados, garante proteção adequada a interesses contrapostos, como privacidade do usuário e confidencialidade empresarial[63]. O Digital Services Act, aprovado pela União Europeia em 16 de novembro de 2022, contém disposições robustas de transparência que, no geral, estão alinhadas com essas considerações[64].

As informações que devem ser publicamente fornecidas incluem, entre outras coisas, termos de uso claros e inequívocos, as sanções disponíveis para lidar com violações (remoção, redução de amplificação, esclarecimentos, suspensão de conta etc.) e a divisão de trabalho entre algoritmos e humanos. Mais importante ainda, os relatórios públicos de transparência devem incluir informações sobre a precisão das medidas de moderação automatizada e o número de ações de moderação de conteúdo desagregadas por tipo (remoção, bloqueio, exclusão de conta etc.)[65]. Também deve haver obrigações de transparência para pesquisadores, dando-lhes acesso a informações e estatísticas cruciais, incluindo o conteúdo analisado para as decisões de moderação de conteúdo[66].

Embora valiosos, os requisitos de transparência são insuficientes para promover a responsabilização adequada porque dependem de usuários e pesquisadores para monitorar ativamente a conduta da plataforma e pressupõem que eles tenham o poder de chamar a atenção para falhas e promover mudanças[67]. A auditoria algorítmica por terceiros é, portanto, um complemento importante para garantir que esses modelos satisfaçam padrões legais, éticos e de segurança, assim como para deixar claras as ponderações feitas, como entre a segurança do usuário e a liberdade de expressão[68].

Como ponto de partida, as auditorias de algoritmos devem considerar questões como sua precisão, qualquer viés ou discriminação potencial incorporada nos dados e em que medida as mecânicas internas são explicáveis para humanos[69]. O Digital Services Act contém uma proposta semelhante[70].

O mercado de auditoria algorítmica ainda é emergente e cheio de incertezas. Ao tentar navegar esse cenário, os reguladores devem: 1) definir com que frequência as auditorias devem ocorrer; 2) desenvolver padrões e melhores práticas para os procedimentos de auditoria; 3) obrigar a divulgação específica para que os auditores tenham acesso aos dados necessários; e 4) definir como os danos identificados devem ser abordados[71].

2.b. Devido processo legal e razoabilidade (fairness)

Para garantir o devido processo legal, as plataformas devem informar aos usuários afetados pelas decisões de moderação de conteúdo qual a cláusula dos termos de uso supostamente violada, além de oferecer um sistema interno de recursos contra essas decisões. Ainda, precisam criar sistemas que permitam a denúncia fundamentada de conteúdo ou contas por outros usuários, e notificar os usuários denunciantes da decisão tomada.

Quanto à razoabilidade (i.e. critérios básicos de justiça das decisões), as plataformas devem garantir que as regras sejam aplicadas de maneira igualitária a todos os usuários. Embora seja admissível que as plataformas adotem critérios diferentes para pessoas públicas ou informações de interesse público, essas exceções devem estar claras nos termos de uso. Esse problema tem sido objeto de controvérsia entre o Comitê de Supervisão do Facebook e a empresa[72].

Por causa da enorme quantidade de conteúdo publicado nas plataformas e à inevitabilidade do uso de mecanismos automatizados para moderação de conteúdo, as plataformas não devem ser responsabilizadas por uma violação desses deveres em casos específicos, mas só quando a análise revelar uma falha sistemática no cumprimento[73].

2.c. Deveres mínimos para moderar conteúdo ilícito

O quadro regulamentar também deve conter obrigações específicas para lidar com certos tipos de discurso especialmente prejudiciais. As seguintes categorias são consideradas como pertencentes a este grupo: a) desinformação; b) discurso de ódio; c) ataques antidemocráticos; d)cyberbullying; e) terrorismo; e f) pornografia infantil.

É certo que definir e identificar o discurso incluído nessas categorias –exceto no caso da pornografia infantil, naturalmente– é uma tarefa difícil e amplamente subjetiva. Precisamente, por esse motivo, as plataformas devem ser livres para definir como os conceitos serão operacionalizados, desde que guiados pelas normas internacionais de direitos humanos e de maneira transparente.

Isso não significa que todas as plataformas chegarão às mesmas definições nem aos mesmos resultados substantivos em casos concretos, por valorações diferentes e pela impossibilidade de consenso. No entanto, a obrigação de observar parâmetros internacionais de direitos humanos reduz a discricionariedade das empresas, permitindo a diversidade de políticas entre elas. Depois de definir essas categorias, as plataformas devem estabelecer mecanismos que permitam aos usuários denunciarem violações.

Além disso, as plataformas também precisam desenvolver mecanismos para lidar com comportamentos inautênticos coordenados, que envolvem o uso de sistemas automatizados ou meios enganosos para amplificar artificialmente mensagens falsas ou perigosas, usando bots, perfis falsos, trolls e provocadores[74].

Por exemplo, se uma pessoa publicar uma postagem dizendo que querosene é bom para curar a covid-19 e essa mensagem alcançar seus 20 seguidores, é ruim, mas o efeito é limitado. Contudo, se essa mensagem for amplificada para milhares de usuários, haverá um problema de saúde pública. Ou, em outro exemplo, se a mensagem falsa de que as eleições foram fraudadas alcançar milhões de pessoas, há um risco democrático por causa da perda de credibilidade nas instituições.

O papel dos órgãos de supervisão deve ser verificar se as plataformas adotaram termos de uso que proíbam o compartilhamento dessas categorias de discurso e garantir que os sistemas de recomendação e moderação de conteúdo estejam treinados para moderar esse conteúdo.

Apesar da importância da ação regulatória, a responsabilidade pela preservação da Internet como uma esfera pública saudável reside, acima de tudo, nos cidadãos. A educação midiática e a conscientização dos usuários são etapas fundamentais para a criação de um ambiente livre, mas positivo e construtivo na rede mundial de computadores.

Os cidadãos devem estar cientes de que as redes sociais podem ser injustas e perversas, violar direitos fundamentais e regras básicas da democracia. Eles devem estar atentos para não passar informações recebidas sem questionamento crítico.

Nas palavras de Jonathan Haidt[75], “[q]uando nossa esfera pública é governada pela dinâmica da multidão, sem mínima observância do devido processo legal, o resultado não é justiça e inclusão; mas, ao contrário, uma sociedade que ignora o contexto, a proporcionalidade, a misericórdia e a verdade”. Os cidadãos são a força mais importante para lidar com essas ameaças.

Em maio de 2023, a Suprema Corte norte-americana decidiu 2 casos relacionados à responsabilização de plataformas digitais. O 1º, Twitter vs. Taamneh[76], discutiu a responsabilidade do Facebook, do Twitter e da Google por um ataque terrorista executado pelo Estado Islâmico em Istambul em 2017.

A família de uma das vítimas fatais processou os réus alegando que eles teriam conhecimento do uso de suas plataformas pela organização terrorista e teriam falhado ao não impedir essas atividades, em violação a dispositivo da Lei de Antiterrorismo (18 U.S.C. §2333(d)(2))[77]. Os autores alegaram ainda que os algoritmos de recomendação das plataformas teriam facilitado as atividades de recrutamento, financiamento e propaganda do Estado Islâmico, e que os réus teriam se beneficiado financeiramente de arrecadações publicitárias incluídas nesse material.

Em decisão unânime, a Suprema Corte rejeitou a alegação, concluindo que a mera disponibilização de plataforma digital com algoritmos que recomendam conteúdo a partir de inputs e histórico de usuários não caracteriza, por si só, conduta ilícita. A Corte entendeu que a relação dos réus com o Estado Islâmico era igual à mantida com todos os demais usuários: impessoal, passiva e indiferente.

Os algoritmos de recomendação são agnósticos quanto ao conteúdo recomendado, sendo influenciados exclusivamente por dados coletados dos usuários, de modo que a Corte entendeu que os requerentes não demonstraram ação deliberada ou vontade consciente de favorecer especificamente a organização terrorista. A capacidade do Estado Islâmico de se beneficiar dessas plataformas foi considerada meramente incidental aos serviços prestados e ao modelo de negócio dos réus.

No 2º caso, Gonzalez vs. Google,[78] discutia-se igualmente a responsabilidade da Google pela morte de uma cidadã norte-americana em um atentado terrorista ocorrido em Paris. Os autores da ação, irmãos da vítima, alegaram que o Google seria responsável direta e subsidiariamente pelo ataque terrorista por ter permitido o uso de sua plataforma YouTube por integrantes do Estado Islâmico.

A Corte, novamente, de forma unânime, considerou que a resolução desse caso deveria ser idêntica à conferida ao caso Twitter vs. Taamneh. Na decisão de só 3 páginas, porém, ressalvou que nenhum desses 2 casos foi proposto para discutir o dispositivo legal que confere às plataformas imunidade por conteúdo publicado por terceiros, deixando aberta a possibilidade de revisão judicial desse modelo de responsabilidade civil, atualmente previsto na Seção 230 do Communications Decency Act.[79]

Em maio de 2020, o Senado iniciou discussões sobre o projeto de lei 2.630 de 2020, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. A versão final, aprovada no Senado em 30 de junho de 2020 e remetida à Câmara dos Deputados, estabelece normas sobre transparência para provedores de redes sociais e serviços de mensageria privada com 2 milhões ou mais de usuários registrados no Brasil.

Em abril de 2023, depois de quase 3 anos aguardando votação na Câmara, o relator, deputado Orlando Silva, apresentou novo texto e foi aprovado um regime de urgência com previsão de votação em 2 de maio de 2023. Não obstante, no dia previsto para votação, o relator pediu a retirada de pauta, alegando falta de tempo hábil para examinar todas as sugestões recebidas quanto à nova versão do projeto.

Dentre os pontos mais controvertidos estão a definição da autoridade responsável pela fiscalização da lei e o compartilhamento de receitas de publicidade com entidades jornalísticas. Desde aquela data, o PL novamente perdeu força.

Em 30 de junho de 2023, o Tribunal Superior Eleitoraldeclarou a inelegibilidade do ex-presidente Jair Bolsonaro por 8 anos por abuso de poder político e uso indevido dos meios de comunicação[80]. A condenação teve como fundamento uma reunião realizada no Palácio da Alvorada com embaixadores em 18 de julho de 2022, na qual o ex-presidente fez campanha eleitoral direcionada aos seus eleitores atacando o sistema de votação.

Dentre outros fundamentos, a Corte equiparou o caso ao julgado no RO 0603975-86 (caso do deputado Francischini), que já havia reconhecido que a disseminação de fatos inverídicos acerca da lisura do pleito, em benefício do candidato, configura abuso de poder político ou de autoridade e/ou uso indevido dos meios de comunicação quando redes sociais são usadas para esse fim. Esse entendimento decorre da constatação de que a liberdade de expressão não protege a disseminação de desinformação eleitoral, sob pena de a democracia sucumbir ao charlatanismo político.

A rede mundial de computadores permitiu o acesso ao conhecimento, à informação e ao espaço público por bilhões de pessoas, mudando o curso da história. No entanto, o uso indevido da Internet e das mídias sociais pode trazer sérias ameaças à democracia e aos direitos fundamentais. Algum grau de regulação, portanto, tornou-se necessário para enfrentar os comportamentos inautênticos e os conteúdos ilegítimos.

É essencial, no entanto, agir com transparência, proporcionalidade e procedimentos adequados, para que o pluralismo, a diversidade e a liberdade de expressão sejam preservados. A educação midiática e a conscientização das pessoas de boa-fé –que felizmente constituem a grande maioria– são medidas decisivas para o uso construtivo das novas tecnologias.

Esse texto foi publicado originariamente no Chicago International Law Journal sob o título “Democracy, Social Media, and Freedom of Expression: Hate, lies, and the Search for the possible truth”. A tradução para o português foi feita com a colaboração de Matheus Verano.

[1] BARROSO, Luís Roberto. O constitucionalismo democrático ou neoconstitucionalismo como ideologia vitoriosa do século 20. Revista Publicum., v. 4, 2018, p. 14.

[2] DWORKIN, Ronald. Is Democracy Possible Here? Princeton: Princeton University Press, 2008, p. 12; DWORKIN, Ronald. Taking Rights Seriously. Cambridge: Harvard University Press, 1997, p. 181.

[3] BARROSO, Luís Roberto. O constitucionalismo democrático ou neoconstitucionalismo como ideologia vitoriosa do século 20. Revista Publicum., v. 4, 2018, p. 14.

[4] ISSACHAROFF, Samuel. Fragile Democracies: Contested Power in the Era of Constitutional Courts. Cambridge: Cambridge University Press, 2015, p. 1.

[5] DIAMOND, Larry. Facing up to the Democratic Recession. Journal of Democracy, v. 26, 2015, p. 141.

[6] HUQ, Aziz; GINSBURG, Tom. How to Lose a Constitutional Democracy. UCLA Law Review, v. 65, 2018, p. 91.

[7] LANDAU, David. Abusive Constitutionalism. U.C. Davis Law Review, v. 47, 2013, p. 189.

[8] LEVITSKY, Steven; WAY, Lucan A. The rise of competitive authoritarianism. Journal of Democracy, v.13, 2002, p.51.

[9] Aparentemente, o termo foi utilizado pela primeira vez por Fareed Zakaria, The rise of illiberal democracies. Foreign Affairs 76:22, 1997.

[10] SCHEPPELE, Kim Lane. Autocratic Legalism. University of Chicago Law Review, v. 85, 2018, p. 545.

[11] BALZ, Dan. A Year After Jan. 6, Are the guardrails that protect democracy real or illusory? The Washington Post, Washington, 6.jan.2022. Disponível neste link. Acesso em 5.mai.2023. Brexit: Reaction from around the UK, BBC, Londres, 24.jun.2016. Disponível neste link. Acesso em 5.mai.2023.

[12] MUDDE, Cas. The Populist Zeitgeist. Government and Opposition. Cambridge: Cambridge University Press, v. 39, 2004, p. 541-544.

[13] MUDDE, Cas. The Populist Zeitgeist, Government & Opposition, v. 39, 2004, p. 541, 544. Para uma discussão geral sobre o extremismo de direita na Índia, veja: SIYECH, Mohammed Sinan. An Introduction to Right-Wing Extremism in India, New Eng. J. Pub. Pol. 1, 2021, p. 33. Para traçar a história do “Hindutva” e constatar que se tornou mainstream desde 2014 sob Modi, v. LEIDIG, Eviane. Hindutva as a Variant of Right-Wing Extremism, Patterns of Prejudice, v. 54, n. 3, 2020, p. 215-237. Para uma discussão do extremismo de direita no Brasil sob Bolsonaro, veja GOLDSTEIN, Ariel. Brazil leads the third wave of the Latin American far right, C-REX – Center for Research on Extremism, 1º mar. 2021. Disponível neste link. Acesso em 5.mai.2023. Para uma discussão do extremismo de direita nos Estados Unidos sob Trump, veja JONES, Seth G. The rise of far-right extremism in the United States, Center for Strategic & International Studies, novembro de 2018. Disponível neste link. Acesso em 5.mai.2023.

[14] FAUSTO, Sergio. O desafio democrático. RevistaPiauí, v. 8, 2022, p. 191.

[15] KUO, Ming-Sung. Against instantaneous democracy. International Journal of Constitutional Law, v. 17, 2019, p. 554-575. Disponível neste link. Acesso em 5.mai. 2023. V. tb., ECPS – European Center for Populism Studies. Digital Populism. Disponível neste link. Acesso em 5.mai.2023.

[16] Sobre o assunto, v.: BARROSO, Luís Roberto. Technological Revolution, Democratic Recession and Climate Change: The Limits of Law in a Changing World. International Journal of Constitutional Law, v.18, 2020, p.334-349.

[17] Para o uso das mídias sociais, v.: ENGESSER, Sven et al. Populism and Social Media: How Politicians Spread a Fragmented Ideology. Information, Communication & Society, v. 20, 2017, p.1109. Sobre ataques à imprensa, v. WPFD 2021: Attacks on Press Freedom Growing Bolder Amid Rising Authoritarianism. International Press Institute, 30 abr. 2021. Disponível neste link. Acesso em 5.mai.2023. Para ataques ao judiciário, v.: DICHO, Michael; LOGVINENKO, Igor. Authoritarian Populism, Courts and Democratic Erosion. Just Security, 11 fev. 2021. Disponível neste link. Acesso em 5.mai.2023.

[18] JACKSON, Vicki C. Knowledge institutions in constitutional democracies: reflections on the “press”. The Jorunal of Meida Law, v. 14, 2022, p. 275. Disponível neste link. Acesso em 5.mai.2023.

[19] BARROSO, Luna van Brussel. Liberdade de Expressão e Democracia na Era Digital: O impacto das mídias sociais no mundo contemporâneo. Belo Horizonte: Forum, 2022.

[20] A primeira revolução industrial é simbolizada pelo uso do vapor como fonte de energia, a partir do meio do século 18. A segunda teve início com o uso da eletricidade e a invenção do motor de combustão interna, na virada do século 19 para o 20. E já se fala da quarta revolução industrial, fruto da fusão de tecnologias, que está afetando as fronteiras entre as esferas física, digital e biológica. Sobre esse último ponto, v. SCHWAB, Klaus. A Quarta Revolução Industrial. Trad. Cássio Leite Vieira. v. 1. ed. São Paulo: Edipro, 2018.

[21] MAGARIAN, Gregory P. A Internet e as Mídias Sociais. In: STONE, Adrienne; SCHAUER, Frederick. Liberdade de Expressão. Oxford: Oxford University Press, 2021, p. 350-368.

[22] WU, Tim. Is the First Amendment Obsolete?. In: POZEN, David E. (Ed.). The Perilous Public Square. N. York: Columbia University Press, 2020. E-book Kindle.

[23] A ética jornalística inclui a distinção entre fato e opinião, verificação da veracidade do que é publicado, não ter interesse próprio no assunto relatado, ouvir o outro lado e retificar erros. Para um exemplo de carta internacional de ética jornalística, v. Global Charter of Ethics for Journalists, The International Federation of Journalists (Junho de 2019). Disponível neste link. Acesso em 5.mai.2023.

[24]E.g.,New York Times Co. v. Sullivan, 376 U.S. 254, 1964.

[25] BALKIN, Jack M. Free Speech is a Triangle. Columbia Law Review, v. 118, n. 7, 2018, p. 2011-2056. Disponível neste link. Acesso em 5.mai.2023.

[26] MAGARIAN, Gregory P. The Internet and Social Media. In: STONE, Adrienne; SCHAUER, Frederick (Eds.). Freedom of Speech. Oxford: Oxford University Press, 2021, p. 350-368.

[27] KADRI, Thomas E.; KLONICK, Kate. Facebook v. Sullivan: public figures and newsworthiness in online speech. Southern California Law Review, v. 93, 2019, p. 94, p. 37-99. Disponível neste link. Acesso em 5.mai.2023.

[28] ELKIN-KOREN, Niva; PEREL, Maayan. Speech Contestation by Design: Democratizing Speech Governance by AI. Florida State University Law Review (forthcoming). Disponível neste link. Acesso em 5.mai.2023.

[29] MESEROLE, Chris. “How do recommender systems work on digital platforms?” Tech Stream, Brookings, 21 de setembro de 2022. Disponível neste link. Acesso em 5.mai.2023.

[30] SHAFFER, Kris. Data versus democracy: how big data algorithms shape opinions and alter the course of history. Colorado: Apress, 2019, p. 11-15.

[31] RUSSELL, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. N. York, Penguin Books, 2019.

[32] V. SHAFFER, Kris. Data versus democracy: how big data algorithms shape opinions and alter the course of history. Colorado: Apress, 2019, p. 11-15.

[33] Mais recentemente, com o avanço da neurociência, as plataformas aprimoraram sua capacidade de manipular e mudar nossas emoções, sentimentos e, consequentemente, nosso comportamento de acordo não com nossos próprios interesses, mas com os deles (ou daqueles a quem vendem este serviço). Nesse contexto, já se fala em um novo direito fundamental à liberdade cognitiva, à autodeterminação mental ou ao direito ao livre arbítrio.

[34] A moderação de conteúdo refere-se a “sistemas que classificam o conteúdo gerado pelo usuário com base em correspondência ou previsão, resultando em uma decisão e governança (por exemplo, remoção, bloqueio geográfico, suspensão de conta)”. ORWA, Robert; BINNS, Reuben; KATZENBACH, Christian. Moderação de conteúdo algorítmico: desafios técnicos e políticos na automação da governança de plataformas. Big Data & Society, vol. 7, 2020, p. 1-15. Disponível neste link. Acesso em 7.mai.2023.

[35] BALKIN, Jack M. Free speech in the algorithmic society: big data, private governance, and new school speech regulation. University of California, Davis, v. 51, 2018, p. 1149-1210. Disponível neste link. Acesso em 7.mai.2023.

[36] THAKUR, Dhanaraj; LLANSÓ, Emma. Do you see what I see? capabilities and limits of automated multimedia content analysis. Center for Democracy & Technology, Washington, 20 de mai de 2021. Disponível neste link. Acesso em 7.mai.2023.

[37] Idem.

[38] WOOLDRIDGE, Michael. A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going. New York: Flatiron Book, janeiro de 2021.

[39] No entanto, essa tecnologia tem sido eficaz no combate à pornografia infantil, que muitas vezes envolve a reprodução de imagens repetidas, dada a dificuldade de produzir esse conteúdo do zero. As empresas de tecnologia mantêm um banco de dados compartilhado e, portanto, são capazes de lidar com esse material com relativa eficiência. Essa tecnologia também é frequentemente usada para conteúdo terrorista e de direitos autorais. BUCKMAN, Ian. Hashing it out: how an automated crackdown on child pornography is shaping the Fourth Amendment. Berkeley Journal of Criminal Law, Berkeley, 13 abr. 2021. Disponível neste link. Acesso em 7.mai.2023.FUSSEL, Sidney. Why the New Zealand shooting video keeps circulating. The Atlantic, 21 mar. 2019. Disponível neste link. Acesso em 7.mai.2023.

[40] A compreensão da linguagem natural é prejudicada pela ambiguidade da linguagem, dependência contextual de palavras não imediatamente próximas, referências, metáforas e regras de semântica geral. A compreensão da linguagem de fato requer conhecimento ilimitado de senso comum sobre o mundo real, que os humanos têm e é impossível de codificar (LARSON, Erik J. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Belknap Press, abril de 2021). Um caso decidido pelo Conselho de Supervisão do Facebook ilustra o ponto: o filtro preditivo da empresa para combater pornografia removeu imagens de uma campanha de conscientização sobre câncer de mama, um conteúdo claramente legítimo que não deveria ser alvo do algoritmo. No entanto, com base no treinamento prévio, o algoritmo removeu a publicação porque detectou pornografia e não conseguiu levar em consideração o contexto de que se tratava de uma campanha de saúde legítima (Facebook Oversight Board, Case 2020-004-IG-UA, Breast Cancer Symptoms and nudity. Disponível neste link. Acesso em 7.mai.2023).

[41] DOUEK, Evelyn. Governing online speech. Columbia Law Review, v. 121, n. 03, 2021. p. 791. Disponível neste link. Acesso em 7.mai.2023.

[42] Idem.

[43] MINOW, Martha. Saving the Press: why the Constitution calls for government action to preserve freedom of speech. Oxford: Oxford University Press, 2021, p. 20. Por exemplo, o jornal mais vendido do mundo, The New York Times, encerrou o ano de 2022 com cerca de 10 milhões de assinantes, entre digitais e impressas. A revista The Economist teve aproximadamente 1,5 milhão em dados de 2019. Em todo o mundo, são raras as publicações que atingem 1 milhão de assinantes (These are the most popular paid subscription news websites, World Econ. F., 29.abr.2021).

[44] Facebook statistics and trends. Datareportal, 19 fev. 2023. Disponível neste link. Acesso em 8.mai.2023.

[45] Youtube User Statistic. Global Media Insight, 27 fev. 2023. Disponível neste link.  Acesso em: 8.mai.2023.

[46] WhatsApp 2023 User Statistics: How Many People Use WhatsApp? Backlinko, 5 jan. 2023. Disponível neste link. Acesso em 8.mai.2023.

[47] Viés de confirmação (confirmation bias) é um obstáculo ao bom pensamento, pois busca só informações que correspondem ao que alguém já acredita.

[48] MINOW, Martha. Saving the Press, 2021, p. 49.

[49] MINOW, Martha. Saving the Press, 2021, p. 3 e 11.

[50] Sobre a importância do papel da imprensa como instituição de interesse público e sua “relação crucial” com a democracia, v. MINOW, Martha. Saving the Press, 2021, p. 35. Sobre a imprensa como uma “instituição de conhecimento”, a ideia de “imprensa institucional” e dados sobre a perda de prestígio de jornais e estações de televisão, v. JACKSON, Vicki C. Knowledge Institutions in Constitutional Democracy: reflections on “the press”, Journal of Media Law, v. 14, n. 2, p. 280 e ss..

[51] BALKIN, Jack M. How to Regulate (and Not Regulate) Social Media. Journal of Free Speech Law, v. 71, 2021, Knight Institute Occasional Paper Series, n. 1, March 2020, Yale Law School, Public Law Research Paper Forthcoming, 20.nov.2019. Disponível neste link. Acesso em 7.mai.2023.

[52] A global dialogue to guide regulation worldwide. Unesco, 2023. Disponível neste link. Acesso em 8.mai.2023.

[53] BEYER, R.. Can we fix what’s wrong with social media? Yale Law Report, verão de 2022.

[54] LESSIG, Lawrence. They don’t represent us: reclaiming our democracy. Providence: Dey Street Books, 2019, p. 105.

[55] DOUEK, Evelyn. Governing online speech. Columbia Law Review, v. 121, abril de 2021, p. 791. Disponível neste link. Acesso em 8.mai.2023. ZITTRAIN, Jonathan. Answering impossible questions: content governance in an age of disinformation. Harvard Kennedy School – Misinformation Review, 4 jan. 2020. Disponível neste link. Acesso em: 8 mai.2023.

[56] Art. 21. O provedor de aplicações de internet que disponibilize conteúdo criado por terceiros será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando, depois do recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de forma diligente, no ambiente e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.

Parágrafo único. A notificação estipulada no caput deverá conter, sob pena de nulidade, elementos que permitam a identificação específica do material apontado como violador da intimidade do participante e a verificação da legitimidade para apresentação do pedido.

[57] Em pronunciamento na Conferência Global da Unesco Por uma Internet de Confiança, em 23 de fevereiro 2023, o 1º autor defendeu as ideias a seguir. No caso de comportamentos criminosos, as plataformas devem remover os conteúdos ilícitos de ofício, isto é, independentemente de provocação. Em casos de clara violação de direitos, como compartilhamento de fotos íntimas sem autorização e violação de direitos autorais, entre outras, as plataformas devem remover o conteúdo imediatamente depois da notificação da parte interessada. Nos demais casos, sobretudo onde possa haver dúvida razoável, a remoção deve se dar depois da primeira ordem judicial.

[58] BALKIN, Jack M. Free Speech is a Triangle. Columbia Law Review, v. 118, 2018, p. 2011-2056. Disponível neste link. Acesso em 7.mai.2023.

[59] KLONICK, Kate. The new governors: the people, rules, and processes governing online speech. Harvard Law Review, v. 131, 2018, p. 1598-1670. Disponível neste link. Acesso em 7.mai.2023.

[60] Human Rights Committee, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. 11 de maio de 2016. UN Doc A/HRC/32/38. Disponível neste link. Acesso em 8.mai.2023.

[61] LEERSSEN, Paddy. The soap box as a black box: regulating transparency in social media recommender systems. European Journal of Law and Technology, v. 11, 2020. Disponível neste link. Acesso em 7.mai.2023.

[62] KELLER, Daphne. Some humility about transparency. The Center for Internet and SocietyBlog, 19 de março 2021. Disponível neste link. Acesso em 7.mai.2023.

[63] MACCARTHY, Mark. Transparency requirements for digital social media platforms: recommendations for policy makers and industry. Transatlantic Working Group, 24 jun. 2020. Disponível neste link ou neste link. Acesso em 8.mai.2023.

[64] O Ato de Serviços Digitais – DSA (promulgado juntamente com o Ato de Mercados Digitais – DMA) foi aprovado pelo Parlamento Europeu em 5 de julho de 2022 e em 4 de outubro de 2022 o Conselho Europeu deu sua aprovação final à regulamentação. O DSA aumenta a transparência e a responsabilidade das plataformas, fornecendo, por exemplo, a obrigação de “informações claras sobre moderação de conteúdo ou o uso de algoritmos para recomendar conteúdo (os chamados sistemas de recomendação); os usuários poderão contestar decisões de moderação de conteúdo”.

[65] MACCARTHY, Mark. Transparency Requirements for Digital Social Media Platforms: Recommendations for Policy Makers and Industry. Transatlantic Working Group, 24 jun. 2020. Disponível neste link ou neste link. Acesso em 8.mai.2023.

[66] Nesse sentido, o professor da Universidade de Stanford, Nathaniel Persily, apresentou recentemente um projeto de lei ao Congresso norte-americano propondo um modelo para conduzir pesquisas sobre os impactos das comunicações digitais de maneira que proteja a privacidade do usuário. O projeto exige que as plataformas digitais compartilhem dados com pesquisadores previamente autorizados pela FTC (Comissão Federal de Comércio, na sigla em inglês) e divulguem publicamente certos dados sobre conteúdo, algoritmos e publicidade. Disponível neste link. Acesso em 8.mai.2023.

[67] NAHMIAS, Yifat; PEREL, Maayan. The oversight of content moderation by AI: impact assessment and their limitations. Harvard Journal on Legislation,v. 58, 2021. Disponível neste link. Acesso em 8.mai.2023.

[68] Auditing Algorithms: the existing landscape, role of regulator and future outlook. Digital Regulation Cooperation Forum, 23 de setembro de 2022. Disponível neste link. Acesso em 7.mai.2023.

[69] KOSHIYAMA, Adriano; KAZIM, Emre; TRELEAVEN, Philip. Algorithm Auditing: Managing the Legal, Ethical, and Technological Risks of Artificial Intelligence, Machine Learning, and Associated Algorithms. IEEE Transactions on Technology and Society, v. 3, Apr. 2022 p. 128-142. Disponível neste link. Acesso em 8.mai.2023.

[70] No artigo 37, o DSA estabelece que plataformas digitais de determinado tamanho devem ser responsáveis, por meio de auditoria independente anual, pelo cumprimento das obrigações estabelecidas na regulamentação e por quaisquer compromissos assumidos de acordo com códigos de conduta e protocolos de crise.

[71] Auditing Algorithms: the existing landscape, role of regulator and future outlook. Digital Regulation Cooperation Forum, 23 set. 2022. Disponível neste link. Acesso em 7.mai.2023.

[72] Em um relatório de transparência publicado ao final de seu 1º ano de operação, o Facebook Oversight Board (FOB) destacou a inadequação das explicações apresentadas pela Meta sobre a operação de um sistema conhecido como cross-check, que aparentemente dava a alguns usuários maior liberdade na plataforma. Em janeiro de 2022, a Meta explicou que o sistema cross-check concede um grau adicional de revisão a determinados conteúdos que os sistemas internos marcam como violando os termos de uso da plataforma. A Meta submeteu uma consulta à FOB sobre como melhorar o funcionamento desse sistema e a FOB fez recomendações relevantes. Mais informações neste link.

[73] DOUEK, Evelyn. Content Moderation as Systems Thinking. Harvard Law Review, v. 2, 2022, p. 136. Disponível neste link. Acesso em 8 mai.2023.

[74] O Facebook define comportamento coordenado inautêntico como “o uso de múltiplos recursos do Facebook ou do Instagram, trabalhando em conjunto para se engajar em comportamento inautêntico, onde o uso de contas falsas é central para a operação”. Comportamento inautêntico é definido como “o uso de recursos do Facebook ou do Instagram (contas, Páginas, Grupos ou Eventos), para enganar as pessoas ou o Facebook: 1) Sobre a identidade, propósito ou origem da entidade que eles representam; 2) Sobre a popularidade do conteúdo ou recursos do Facebook ou do Instagram; 3) Sobre o propósito de uma audiência ou comunidade; 4) Sobre a fonte ou origem do conteúdo; ou 5) Para evitar a aplicação das nossas Normas da Comunidade”.

[75] HAIDT, Jonathan. Why the past 10 years of American life have been uniquely stupid. The Atlantic. Disponível neste link. Acesso em 8.mai.2023. Tradução livre e ligeiramente editada.

[76] Twitter, Inc. v. Taamneh, 598 US ___ (2023).

[77]“In an action under subsection (a) for an injury arising from an act of international terrorism committed, planned, or authorized by an organization that had been designated as a foreign terrorist organization under section 219 of the Immigration and Nationality Act (8 U.S.C. 1189), as of the date on which such act of international terrorism was committed, planned, or authorized, liability may be asserted as to any person who aids and abets, by knowingly providing substantial assistance, or who conspires with the person who committed such an act of international terrorism.”Tradução livre:“Em uma ação processada sob a subseção (a) por dano decorrente de um ato de terrorismo internacional cometido, planejado ou autorizado por uma organização designada como uma organização terrorista estrangeira nos termos da seção 219 da Lei de Imigração e Nacionalidade (8 U.S.C. 1189), a partir da data em que tal ato de terrorismo internacional foi cometido, planejado ou autorizado, a responsabilidade pode ser reconhecida em relação a qualquer pessoa que ajude e incite, conscientemente fornecendo assistência substancial, ou que conspire com a pessoa que cometeu tal ato de terrorismo internacional.”

[78] Gonzalez v. Google LLC, 598 U.S. ___ (2023).

[79] §230: “No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.” Tradução livre: “Nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como o editor ou orador de qualquer informação fornecida por outro provedor de conteúdo de informação.”

[80] Por maioria de votos, TSE declara Bolsonaro inelegível por 8 anos. Tribunal Superior Eleitoral, 30 jun. 2023.

A GLOBAL dialogue to guide regulation worldwide. Unesco, 2023. Disponível neste link. Acesso em 8.mai.2023.

AUDITING Algorithms: the existing landscape, role of regulator and future outlook. Digital Regulation Cooperation Forum, 23 de setembro de 2022. Disponível neste link. Acesso em 7.mai.2023.

BALKIN, Jack M. Free Speech is a Triangle. Columbia Law Review, v. 118, n. 7, 2018, p. 2011-2056. Disponível neste link. Acesso em 5.mai.2023.

BALKIN, Jack M. How to Regulate (and Not Regulate) Social Media. Journal of Free Speech Law, v. 71, 2021, Knight Institute Occasional Paper Series, n. 1, March 2020, Yale Law School, Public Law Research Paper Forthcoming, 20 de novembro de 2019. Disponível neste link. Acesso em 7.mai.2023.

BALKIN, Jack M. Free speech in the algorithmic society: big data, private governance, and new school speech regulation. University of California, Davis, v. 51, 2018, p. 1149-1210. Disponível neste link. Acesso em 7.mai.2023.

BALZ, Dan. A Year After Jan. 6, Are the guardrails that protect democracy real or illusory? The Washington Post, Washington, 6 jan. 2022. Disponível neste link. Acesso em 5.mai.2023.

BARROSO, Luís Roberto. O constitucionalismo democrático ou neoconstitucionalismo como ideologia vitoriosa do século 20. Revista Publicum., v. 4, 2018.

BARROSO, Luís Roberto. Technological Revolution, Democratic Recession and Climate Change: The Limits of Law in a Changing World. International Journal of Constitutional Law, v.18, 2020.

BARROSO, Luna van Brussel. Liberdade de Expressão e Democracia na Era Digital: O impacto das mídias sociais no mundo contemporâneo. Belo Horizonte: Forum, 2022.

BEYER, R.. Can we fix what’s wrong with social media? Yale Law Report, verão de 2022.

BREXIT: Reaction from around the UK, BBC, Londres, 24 de junho de 2016. Disponível neste link. Acesso em 5.mai.2023.

BUCKMAN, Ian. Hashing it out: how an automated crackdown on child pornography is shaping the Fourth Amendment. Berkeley Journal of Criminal Law, Berkeley, 13 abr. 2021. Disponível neste link. Acesso em 7.mai.2023.

DIAMOND, Larry. Facing up to the Democratic Recession. Journal of Democracy, v. 26, 2015.

DICHO, Michael; LOGVINENKO, Igor. Authoritarian Populism, Courts and Democratic Erosion. Just Security, 11 fev. 2021. Disponível neste link. Acesso em 5.mai.2023.

DOUEK, Evelyn. Content Moderation as Systems Thinking. Harvard Law Review, v. 2, 2022, p. 136. Disponível neste link. Acesso em 8.mai.2023.

DOUEK, Evelyn. Governing online speech. Columbia Law Review, v. 121, n. 03, 2021. Disponível neste link. Acesso em 7.mai.2023.

DWORKIN, Ronald. Is Democracy Possible Here? Princeton: Princeton University Press, 2008.

DWORKIN, Ronald. Taking Rights Seriously. Cambridge: Harvard University Press, 1997.

ECPS – European Center for Populism Studies. Digital Populism. Disponível neste link. Acesso em 5.mai.2023.

ELKIN-KOREN, Niva; PEREL, Maayan. Speech Contestation by Design: Democratizing Speech Governance by AI. Florida State University Law Review (forthcoming). Disponível neste link. Acesso em 5.mai.2023.

ENGESSER, Sven et al. Populism and Social Media: How Politicians Spread a Fragmented Ideology. Information, Communication & Society, v. 20, 2017.

FACEBOOK statistics and trends. Datareportal, 19 fev. 2023. Disponível neste link. Acesso em 8.mai.2023.

FAUSTO, Sergio. O desafio democrático. RevistaPiauí, v. 8, 2022.

FUSSEL, Sidney. Why the New Zealand shooting video keeps circulating. The Atlantic, 21 mar. 2019. Disponível neste link. Acesso em 7.mai.2023.

GLOBAL Charter of Ethics for Journalists, The International Federation of Journalists (Junho de 2019). Disponível neste link. Acesso em 5.mai.2023.

GOLDSTEIN, Ariel. Brazil leads the third wave of the Latin American far right, C-REX – Center for Research on Extremism, 1º mar. 2021. Disponível neste link. Acesso em 5.mai.2023.

HAIDT, Jonathan. Why the past 10 years of American life have been uniquely stupid. The Atlantic. Disponível neste link. Acesso em 8.mai.2023.

HUMAN Rights Committee, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. 11 de maio de 2016. UN Doc A/HRC/32/38. Disponível neste link. Acesso em 8.mai.2023.

HUQ, Aziz; GINSBURG, Tom. How to Lose a Constitutional Democracy. UCLA Law Review, v. 65, 2018.

ISSACHAROFF, Samuel. Fragile Democracies: Contested Power in the Era of Constitutional Courts. Cambridge: Cambridge University Press, 2015.

JACKSON, Vicki C. Knowledge institutions in constitutional democracies: reflections on the “press”. The Jorunal of Meida Law, v. 14, 2022. Disponível neste link. Acesso em 5.mai.2023.

JONES, Seth G. The rise of far-right extremism in the United States, Center for Strategic & International Studies, novembro de 2018. Disponível neste link. Acesso em 5.mai.2023.

KADRI, Thomas E.; KLONICK, Kate. Facebook v. Sullivan: public figures and newsworthiness in online speech. Southern California Law Review, v. 93, 2019. Disponível neste link. Acesso em 5.mai.2023.

KELLER, Daphne. Some humility about transparency. The Center for Internet and SocietyBlog, 19 de mar. 2021. Disponível neste link. Acesso em 7.mai.2023.

KLONICK, Kate. The new governors: the people, rules, and processes governing online speech. Harvard Law Review, v. 131, 2018, p. 1598-1670. Disponível neste link. Acesso em 7.mai.2023.

KOSHIYAMA, Adriano; KAZIM, Emre; TRELEAVEN, Philip. Algorithm Auditing: Managing the Legal, Ethical, and Technological Risks of Artificial Intelligence, Machine Learning, and Associated Algorithms. IEEE Transactions on Technology and Society, v. 3, Apr. 2022 p. 128-142. Disponível neste link. Acesso em 8.mai.2023.

KUO, Ming-Sung. Against instantaneous democracy. International Journal of Constitutional Law, v. 17, 2019, p. 554-575. Disponível neste link. Acesso em 5.mai.2023.

LANDAU, David. Abusive Constitutionalism. U.C. Davis Law Review, v. 47, 2013.

LARSON, Erik J. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Belknap Press, abril de 2021.

LEERSSEN, Paddy. The soap box as a black box: regulating transparency in social media recommender systems. European Journal of Law and Technology, v. 11, 2020. Disponível neste link. Acesso em 7.mai.2023.

LEIDIG, Eviane. Hindutva as a Variant of Right-Wing Extremism, Patterns of Prejudice, v. 54, n. 3, 2020, p. 215-237.

LESSIG, Lawrence. They don’t represent us: reclaiming our democracy. Providence: Dey Street Books, 2019.

LEVITSKY, Steven; WAY, Lucan A. The rise of competitive authoritarianism. Journal of Democracy, v.13, 2002.

MACCARTHY, Mark. Transparency requirements for digital social media platforms: recommendations for policy makers and industry. Transatlantic Working Group, 24 jun. 2020. Disponível neste link ou neste link. Acesso em 8.mai.2023.

MAGARIAN, Gregory P. A Internet e as Mídias Sociais. In: STONE, Adrienne; SCHAUER, Frederick. Liberdade de Expressão. Oxford: Oxford University Press, 2021.

MESEROLE, Chris. “How do recommender systems work on digital platforms?” Tech Stream, Brookings, 21 de set de 2022. Disponível neste link. Acesso em 5.mai.2023.

MINOW, Martha. Saving the Press: why the Constitution calls for government action to preserve freedom of speech. Oxford: Oxford University Press, 2021.

MINOW, Martha. Saving the Press, 2021.

MUDDE, Cas. The Populist Zeitgeist. Government and Opposition. Cambridge: Cambridge University Press, v. 39, 2004.

NAHMIAS, Yifat; PEREL, Maayan. The oversight of content moderation by AI: impact assessment and their limitations. Harvard Journal on Legislation,v. 58, 2021. Disponível neste link. Acesso em 8.mai.2023.

ORWA, Robert; BINNS, Reuben; KATZENBACH, Christian. Moderação de conteúdo algorítmico: desafios técnicos e políticos na automação da governança de plataformas. Big Data & Society, vol. 7, 2020, p. 1-15. Disponível neste link. Acesso em 7.mai.2023.

RUSSELL, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. N. York, Penguin Books, 2019.

SCHEPPELE, Kim Lane. Autocratic Legalism. University of Chicago Law Review, v. 85, 2018.

SCHWAB, Klaus. A Quarta Revolução Industrial. Trad. Cássio Leite Vieira. v. 1. ed. São Paulo: Edipro, 2018.

SHAFFER, Kris. Data versus democracy: how big data algorithms shape opinions and alter the course of history. Colorado: Apress, 2019.

SIYECH, Mohammed Sinan. An Introduction to Right-Wing Extremism in India, New Eng. J. Pub. Pol. 1, 2021.

THAKUR, Dhanaraj; LLANSÓ, Emma. Do you see what I see? capabilities and limits of automated multimedia content analysis. Center for Democracy & Technology, Washington, 20 de maio de 2021. Disponível neste link. Acesso em 7.mai.2023.

WHATSAPP 2023 User Statistics: How Many People Use WhatsApp? Backlinko, 5 de janeiro de 2023. Disponível neste link. Acesso em 8.mai.2023.

WOOLDRIDGE, Michael. A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going. New York: Flatiron Book, janeiro de 2021.

WPFD 2021: Attacks on Press Freedom Growing Bolder Amid Rising Authoritarianism. International Press Institute, 30 abr. 2021. Disponível neste link. Acesso em 5.mai.2023.

WU, Tim. Is the First Amendment Obsolete?. In: POZEN, David E. (Ed.). The Perilous Public Square. N. York: Columbia University Press, 2020. E-book Kindle.

YOUTUBE User Statistic. Global Media Insight, 27 de fevereiro de 2023. Disponível neste link. Acesso em 8.mai.2023.

ZAKARIA, Fareed. The rise of illiberal democracies. Foreign Affairs 76:22, 1997.

ZITTRAIN, Jonathan. Answering impossible questions: content governance in an age of disinformation. Harvard Kennedy School – Misinformation Review, 4 de janeiro de 2020. Disponível neste link. Acesso em: 8.mai.2023.

Fonte: Poder360

© 2024 Blog do Marcos Dantas. Todos os direitos reservados.
Proibida a reprodução total ou parcial do conteúdo deste site sem prévia autorização.