Lobby de big techs trava enfrentamento às fake news, dizem advogados

Fachado do TSE (Tribunal Superior Eleitoral)
Plataformas digitais poderão ser responsabilizadas se não retirarem conteúdos ilícitos manipulados por IA do ar

Ao responsabilizar as plataformas digitais por não remover conteúdos manipulados por IA (inteligência artificial), considerados ilícitos, o TSE (Tribunal Superior Eleitoral) ajuda a combater a desinformação, segundo Marcelo Crespo, advogado especialista em direito digital e coordenador do curso de direito da ESPM-SP (Escola Superior de Marketing e Propaganda de São Paulo). Ao Poder360, Crespo afirmou que o desafio, no entanto, é superar o lobby das big techs,

Em 27 de fevereiro, a Corte Eleitoral aprovou as resoluções que devem guiar as eleições municipais de outubro. Leia aqui a íntegra do texto (PDF – 1,1 MB).

Uma das normas, voltada para a propaganda eleitoral, estabelece que a IA só pode ser usada para manipular conteúdos se vier acompanhada de rótulos de identificação. O TSE determina que o conteúdo não sinalizado seja removido, sob pena de responsabilização solidária.

De acordo com Crespo, a norma da Corte ajuda, mas é incapaz de resolver o problema da desinformação por completo.

“Sabe-se que a desinformação é produzida e disseminada não apenas em âmbito eleitoral, motivo pelo qual seu combate deve se dar em diferentes setores”, afirmou.

Para ele, o TSE é “bem-intencionado”, mas ainda lidará com fake news que se estruturam em diferentes níveis. “Em muitos casos há grandes esquemas por trás, com infraestrutura, dinheiro e poder envolvidos”, disse Crespo.

Já para Francisco Laux, doutor em direito pela USP (Universidade de São Paulo) e sócio do Granemann Laux Advogados Associados, a existência de uma legislação que pautasse as decisões do Judiciário seria mais efetiva para o combate à desinformação. Na ausência dela, o TSE age como pode para diminuir a sua circulação.

Procurado pelo Poder360, o Google disse que não comentaria a resolução.

A Meta afirmou que sua posição é colaborativa. No entanto, classificou as medidas como “vagas”. Para a empresa, ainda restam dúvidas sobre as expectativas do TSE acerca, por exemplo, do que significa “indisponibilização imediata de conteúdo considerado ilícito”, como estabelece a resolução.

Segundo a Meta, a indefinição cria um ambiente de “insegurança jurídica” pela possibilidade de aplicação de penalidades financeiras diante de expectativas que não poderão ser cumpridas.

Laux concorda que as condições tornam incertas o desenrolar da aplicação das resoluções. “Não há jurisprudência consolidada ou definição legal do que seria discurso de ódio, por exemplo, apenas tipos penais, mas não os crimes”, afirmou em entrevista a este jornal digital. O ponto também é tema de conflito para a Meta.

Quanto às iniciativas para impedir a circulação de desinformação por conteúdo manipulado, a Meta anunciou que está desenvolvendo uma ferramenta capaz de identificá-la. O objetivo é que a abordagem rotule o conteúdo ilícito e torne possível para o usuário e para os processadores identificar a manipulação. Para a Meta, ainda não existe tecnologia capaz de atender as expectativas do TSE de rastreamento.

A cada trimestre, a Meta disponibiliza o relatório de aplicação das normas da comunidade em seu portal de transparência. O documento mostra as ações tomadas pela empresa sobre os conteúdos que violam suas diretrizes, como nudez, bullying, assédio, discurso de ódio, spam e incitação à violência.

No último levantamento, divulgado em fevereiro, referente aos dados de outubro a dezembro de 2023, a empresa demonstrou que agiu sobre 7,4 milhões de conteúdos que continham discurso de ódio no Instagram e outros 7,4 milhões no Facebook. De acordo com a Meta, o número representa 97,3% e 94,5%, respectivamente, de todas as denúncias reportadas por usuários em cada uma das redes sociais.

Além disso, a Corte Eleitoral determinou a “vedação absoluta” do uso de IA para manipular conteúdos com intenção de prejudicar ou favorecer candidatura, ainda que mediante autorização. O objetivo é evitar a circulação de deep fakes.

Questionado se a iniciativa é a melhor forma de remediar conteúdos já disseminados, Crespo diz que não há receita adequada para lidar com a desinformação. “Infelizmente, o que sabemos é que o modelo atual de responsabilidade por conteúdo de terceiros não funciona bem para um ambiente saudável”, declara ao Poder360.

Para o advogado, a solução deve vir de uma combinação de ações que tratem do tema.

Laux, concorda que as resoluções contribuirão, mas estão distantes de resolver o problema. “É impossível adotar medidas que cumpram o objetivo de combate à desinformação de maneira integral. Liminarmente, por exemplo, você pode dar uma ordem judicial, mas na sentença, depois da resposta, o Judiciário pode mudar de ideia”, afirma.

Ele diz que o Marco Civil da Internet tem dispositivos capazes de permitir a remoção de conteúdos a partir do apontamento de seus endereços eletrônicos. No entanto, ele foi construído para uma realidade de poucas publicações e não aquelas que viralizam –uma realidade frequente em eleições.

Laux também chama a atenção para o balanço entre a liberdade de expressão e a remoção de conteúdos. No entendimento dele, a remoção por ordem judicial, se realizada em larga escala, pode acabar criando mártires –o que é mais problemático do que manter o debate público sem baliza.

Assim, o advogado sugere “que a desinformação seja combatida com mais informação”. Como, por exemplo, a adição de contextos explicativos, links de fontes esclarecendo fatos e o uso de selos para ajudar os usuários a identificarem conteúdos problemáticos é mais efetivo e uma maneira de fazer a liberdade de expressão prevalecer.

A responsabilização de redes sociais pelos conteúdos dos usuários é uma pauta discutida no Judiciário e no Legislativo.

No Judiciário, há 3 ações no STF (Supremo Tribunal Federal) que tratam da responsabilização das plataformas por conteúdos publicados. Duas das 3 ações chegaram a entrar na pauta do Supremo em maio de 2023, mas foram retiradas a pedido dos relatores, os ministros Luiz Fux e Dias Toffoli. Os magistrados paralisaram a discussão para aguardar um avanço do Legislativo.

No Congresso, o tema é discutido no PL das fake news, que não teve nenhuma movimentação na pauta do plenário da Câmara desde maio de 2023. Nesse período, os ministros da Corte verbalizaram publicamente sobre a necessidade de uma legislação para o tema.

Já a regulamentação da IA é tema de um projeto de lei protocolado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), em maio de 2023.

A proposta é criar um marco regulatório para a ferramenta no Brasil. O PL 2.338 de 2023 determina normas gerais para o uso da tecnologia, com o objetivo de proteger os direitos fundamentais das pessoas e garantir a implementação de sistemas mais seguros em razão da ampliação de seu uso no mundo inteiro.

O tema é uma das prioridades da Casa Alta. Segundo Pacheco, o PL deve ser votado até abril. Em seu último discurso como senador, o ministro do STF Flávio Dino demonstrou preocupação com IA e disse ser atribuição da política combater esse progresso.

Em setembro de 2023, o ministro Alexandre de Moraes disse que o Congresso está “devendo” uma regulamentação sobre as redes sociais. Em fevereiro deste ano, repetiu a cobrança durante a abertura dos trabalhos no TSE.

O magistrado é um grande defensor da discussão e afirma que é necessária a responsabilização das big techs. Em abril de 2023, foi chamado pelo Congresso para apresentar sugestões para o PL das fake news.

A principal das 5 sugestões enviadas pelo ministro tinha teor semelhante ao que a Corte Eleitoral estabeleceu na nova resolução: sugeria que as plataformas sejam “solidariamente responsáveis” por conteúdos “direcionados por algoritmos” ou impulsionados com pagamentos feitos às redes. As sugestões de Moraes não foram consideradas pelo Legislativo.

Fonte: Poder360

© 2024 Blog do Marcos Dantas. Todos os direitos reservados.
Proibida a reprodução total ou parcial do conteúdo deste site sem prévia autorização.