top of page
Foto do escritorAmazoom

Entre a liberdade de expressão e o controle de conteúdo

Plataformas digitais enfrentam críticas e questionamentos sobre a transparência e isonomia na aplicação de suas políticas de moderação, enquanto o debate sobre regulação avança no Brasil.

 

Por Arthur Chaves*.


Na era das redes sociais, onde milhões de usuários compartilham informações e opiniões diariamente, as discussões sobre liberdade de expressão e regulação de conteúdo se tornaram centrais. De um lado, há defensores de um ambiente virtual mais livre, no qual todos possam se expressar sem restrições.

 

De outro, cresce a demanda por medidas eficazes contra discursos de ódio, desinformação e conteúdos prejudiciais. Esse embate entre liberdade e regulação ganhou maior destaque com casos polêmicos, como o do podcaster Bruno Aiub, mais conhecido como Monark.

 

Em fevereiro de 2022, Monark provocou indignação ao sugerir, durante um episódio do Flow Podcast, que a legalização de um partido nazista no Brasil seria uma medida válida. A fala repercutiu negativamente, levando à perda de patrocínios e ao banimento do canal do YouTube, que o desmonetizou por violar suas diretrizes.

 

Além de perder a plataforma que utilizava para transmitir seus conteúdos, Monark afirmou estar sendo alvo de "perseguição política", levantando o debate sobre os limites da liberdade de expressão nas redes sociais e a atuação das big techs na moderação de conteúdo.

Plataformas como YouTube, Facebook e Instagram operam sob políticas de uso próprias, que devem ser seguidas por seus usuários. Essas diretrizes incluem o combate a discursos de ódio, incitação à violência e desinformação, em um esforço para manter um ambiente seguro para a diversidade de opiniões.

Entretanto, figuras públicas e influenciadores têm questionado as medidas punitivas aplicadas a discursos mais controversos, alegando que as regras das plataformas acabam censurando opiniões políticas.

 

No caso de Monark, sua suspensão pelo YouTube foi baseada no contrato estabelecido entre o criador de conteúdo e a plataforma, em conformidade com os termos de serviço aceitos. Nesse sentido, a decisão da empresa não constitui censura, mas sim uma ação regulatória prevista em suas diretrizes. Esse processo, no entanto, gerou críticas sobre a falta de clareza nas decisões e o poder das plataformas de regular o debate público sem mecanismos de transparência suficientes.

 

Com o crescimento do impacto político nas redes sociais, é cada vez mais comum ver influenciadores e personalidades acusando as plataformas de censura privada, especialmente quando suas publicações são retiradas do ar ou seu alcance é reduzido. Tais alegações refletem uma tensão crescente entre a liberdade de expressão individual e a responsabilidade das plataformas em evitar a proliferação de discursos nocivos.

Com o aumento das políticas de moderação por grandes plataformas, surgiram redes alternativas, como Rumble, Parler e Gab, que prometem oferecer maior liberdade para os usuários se expressarem. Essas plataformas atraem personalidades que foram banidas de redes mais populares, prometendo menos interferência e controle sobre o conteúdo. No entanto, essas iniciativas enfrentam sérios desafios ao tentar equilibrar liberdade e segurança.
Monark se mudou para os EUA e continua a fazer lives na plataforma Rumble. Foto: Internet.

Plataformas que se autodenominam defensoras de "liberdade de expressão" acabaram se tornando alvo de trolls, conteúdos extremistas, difamação e até atividades criminosas. A falta de uma política clara de moderação fez com que redes como Parler fossem removidas de lojas de aplicativos, forçando mudanças em suas práticas. Mesmo o Rumble, plataforma escolhida por Monark após sua saída do YouTube, afirma que adota políticas de moderação rigorosas contra conteúdos como racismo, incitação à violência e terrorismo.

 

Moderação de Conteúdo

 

O volume gigantesco de conteúdos gerados diariamente nas redes sociais exige que as plataformas empreguem uma combinação de moderação automatizada e humana. Ferramentas como filtros de linguagem, rotulação de desinformação e limitação de engajamento ("shadowbanning") são utilizadas para garantir que conteúdos prejudiciais não se espalhem facilmente. Medidas como desmonetização ou banimento total, conhecidas como "deplataformização", também fazem parte desse arsenal.

 

Essas ações são necessárias para prevenir a disseminação de discurso nocivo e proteger a comunidade online. No entanto, as plataformas enfrentam desafios constantes para melhorar seus sistemas de moderação. 

Um estudo da Mozilla Foundation apontou que o investimento em moderação de conteúdo em línguas não inglesas, como o português, ainda é insuficiente, resultando em erros que afetam tanto os usuários quanto o próprio processo de moderação. Conteúdos legítimos podem ser removidos de forma equivocada, enquanto postagens prejudiciais permanecem ativas por tempo demais.

 

Essa falta de eficiência na moderação alimenta a narrativa de arbitrariedade nas decisões das plataformas, gerando descontentamento entre os usuários. Muitos influenciadores reclamam que as regras são aplicadas de forma desigual, resultando em um sentimento de injustiça e falta de transparência.

 

O Papel do Poder Público na Regulação das Redes

 

Diante desses desafios, a regulação das plataformas digitais tem se tornado uma pauta importante no debate público. No Brasil, o Projeto de Lei 2630/2020, também conhecido como PL das Fake News, busca estabelecer regras mais claras para as plataformas, com foco na transparência e na responsabilização das empresas sobre o conteúdo veiculado. O projeto defende a criação de mecanismos que permitam aos usuários contestarem decisões de moderação e assegurem o direito de ampla defesa.

A ideia é que o poder público supervisione as decisões tomadas pelas big techs, garantindo que o controle do discurso nas plataformas siga os princípios democráticos e respeite os direitos fundamentais. Regras de revisão, transparência e devido processo são fundamentais para que as plataformas não atuem de maneira abusiva e que suas políticas de moderação sejam aplicadas de forma justa e equitativa.

 

As redes sociais se tornaram o principal meio de comunicação e debate público na sociedade contemporânea, e o poder das plataformas digitais de controlar o que é ou não permitido em seus espaços levanta questões complexas sobre liberdade de expressão. Embora a moderação de conteúdo seja necessária para garantir um ambiente seguro e democrático, é preciso mais transparência e accountability nas decisões das plataformas.

 


* Grupo 7. Conteúdo experimental produzido no escopo da disciplina

JOR53 – Jornalismo Especializado I.

3 visualizações0 comentário

Comments


bottom of page