Mendonça finalmente toma atitude

Justiça

A Suprema Corte do Brasil está diante de uma decisão com grande potencial de impacto para o funcionamento das plataformas digitais no país. O julgamento em curso discute a constitucionalidade do artigo 19 do Marco Civil da Internet, um ponto-chave na regulação do conteúdo online.

O artigo 19 estabelece que as plataformas digitais — como redes sociais, serviços de hospedagem e buscadores — só podem ser responsabilizadas judicialmente por publicações de terceiros caso não cumpram uma ordem judicial de remoção do conteúdo. Em outras palavras, elas não são obrigadas a monitorar ou filtrar proativamente o que os usuários postam, a não ser que haja uma determinação expressa da Justiça. Essa norma, desde sua criação, busca equilibrar a liberdade de expressão com a responsabilidade jurídica.

Porém, esse modelo vem sendo questionado, especialmente diante do crescimento das redes sociais e da propagação de conteúdos ilícitos, como fake news, discursos de ódio e incitação à violência.

O impacto de uma possível mudança no modelo atual

Caso o Supremo Tribunal Federal considere o artigo 19 inconstitucional, o cenário de responsabilidade das chamadas “big techs” no Brasil pode mudar radicalmente. As plataformas poderiam ser responsabilizadas mesmo sem uma ordem judicial prévia, o que colocaria sobre elas o dever de agir preventivamente para coibir abusos e violações de direitos.

Essa mudança representaria uma ruptura com o modelo que vigora desde 2014 e colocaria o Brasil mais próximo de legislações adotadas na União Europeia, onde empresas digitais precisam tomar medidas mais ativas para impedir a disseminação de conteúdo ilegal.

Para os defensores da revogação do artigo, o atual sistema favorece a impunidade e dificulta o combate efetivo à desinformação. Já os críticos da mudança alertam que isso poderia levar à censura privada, com plataformas retirando conteúdos em excesso por medo de sanções, o que afetaria negativamente a liberdade de expressão.

A movimentação da AGU e o papel da desinformação

Coincidentemente — ou não —, no mesmo dia em que o ministro André Mendonça devolveu o processo para julgamento no STF, a Advocacia-Geral da União (AGU) deu entrada em uma nova ação na Corte. Nessa petição, a AGU solicita que as plataformas digitais sejam responsabilizadas por suposta omissão no combate à desinformação e à violência digital.

O argumento central da AGU é que, ao não agir contra a propagação de conteúdos nocivos, essas empresas acabam sendo coniventes com práticas que atentam contra os direitos fundamentais dos cidadãos. A ação pretende garantir a efetividade de decisões que estão sendo analisadas pelo STF, antecipando os efeitos de uma possível alteração do regime jurídico atual.

Na prática, o governo federal busca acelerar as mudanças que podem decorrer do julgamento do artigo 19, pressionando as empresas a atuarem de forma mais incisiva contra abusos online.

A tensão entre regulação e liberdade de expressão

A discussão sobre o papel das plataformas digitais no controle de conteúdo não é nova, mas ganhou novos contornos com o avanço da tecnologia e a crescente influência das redes sociais no debate público. Por um lado, há o reconhecimento de que conteúdos como discursos de ódio, fake news e ataques à democracia precisam de controle. Por outro, existe o temor de que a responsabilização excessiva leve à censura e à restrição do debate livre.

A eventual derrubada do artigo 19 levanta questões delicadas: até que ponto uma empresa privada deve ser responsável pelo que é publicado em suas plataformas? Como garantir que os mecanismos de remoção não sejam usados para silenciar opiniões legítimas? E quem decide o que pode ou não pode permanecer no ar?

Essas são perguntas que o Supremo Tribunal Federal precisará responder, levando em consideração os princípios constitucionais da liberdade de expressão, do devido processo legal e da proteção à honra e à dignidade das pessoas.

Consequências para as big techs e para os usuários

Se o STF decidir pela inconstitucionalidade do artigo 19, as grandes empresas de tecnologia terão que reformular suas políticas de moderação de conteúdo. Isso pode significar maior investimento em equipes de revisão, sistemas automatizados de detecção de conteúdos ilegais e mais agilidade na resposta a denúncias.

Para os usuários, isso pode resultar em um ambiente digital mais seguro, com menos espaço para abusos. No entanto, também existe o risco de que postagens legítimas sejam removidas de forma excessiva, afetando a participação livre e democrática no ambiente virtual.

Além disso, o novo cenário pode gerar insegurança jurídica, já que as empresas terão que tomar decisões rápidas sobre remoções de conteúdo sem necessariamente aguardar uma análise judicial — o que pode causar atritos com usuários e organizações da sociedade civil.

O desafio de um novo marco regulatório

O julgamento do artigo 19 não ocorre isoladamente. Ele faz parte de um debate mais amplo sobre como o Brasil deve lidar com os desafios da era digital. A ausência de uma legislação específica e atualizada sobre responsabilidade de plataformas abre espaço para decisões judiciais com impactos amplos e imediatos.

A ação da AGU mostra que o governo federal está disposto a pressionar por mudanças, mesmo antes que o Supremo finalize sua análise. Isso reforça a necessidade de um debate transparente e participativo sobre o tema, envolvendo o Congresso Nacional, a sociedade civil, especialistas e as próprias empresas de tecnologia.

Independentemente da decisão do STF, é fundamental que o Brasil encontre um equilíbrio entre combater abusos online e preservar os direitos fundamentais. A internet deve ser um espaço de liberdade, mas também de responsabilidade. E cabe ao sistema jurídico encontrar o ponto de equilíbrio entre esses valores.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *