O secretário de Políticas Digitais da Secretaria de Comunicação Social (Secom) da Presidência da República, João Brant, defendeu que o artigo 19 do Marco Civil da Internet (MCI) seja revisto como forma de ampliar a responsabilidade das redes sociais sobre conteúdos nocivos à democracia e aos direitos humanos e de crianças e adolescentes.
Segundo ele, o modelo atual "autoriza a omissão das plataformas digitais". Isso deixa as empresas "desobrigadas de agir contra conteúdos ilegais e nocivos, justamente num ambiente no qual apenas elas têm condições de atuar". Com isso, as empresas não têm obrigação de zelar sobre um ambiente em que os brasileiros passam tantas horas por dia compartilhando informações, e por onde circula grande parte do debate público atual.
"Vale lembrar que as plataformas não são meras espectadoras das postagens e dos acontecimentos. Elas moderam conteúdo, definem seus algoritmos e recomendações, o que significa que são responsáveis por definir o que cada um de nós recebe e visualiza. Ora, se elas já são responsáveis pela publicidade que aceitam e pelo que nós vemos em nossos perfis, não deveriam se eximir totalmente da responsabilidade por cuidar de evitar a ampliação da circulação de conteúdos considerados ilícitos pela legislação brasileira", continuou Brant.
Para o secretário, a distorção proporcionada pela lei acontece no momento em que um direito essencial como a liberdade de expressão é usado para justificar uma omissão diante desses conteúdos ilícitos. Além dos que atentam contra o estado democrático de direito, ele também destacou os que promovem racismo e aqueles que podem ser direcionados contra crianças e adolescentes.
Estudos
Brant citou um estudo realizado no TikTok em que perfis criados por pesquisadores se passando por adolescentes de 13 anos receberam conteúdos promovendo suicídio e violência, após apenas 10 minutos de uso da plataforma. A pesquisa também mostrou que apenas seis hashtags relacionadas a suicídio aparecem em 1,5 milhão de postagens, com quase 9 bilhões de visualizações.
Outro levantamento, realizado pelo Laboratório de Estudos de Internet e Mídias Sociais da Universidade Federal do Rio de Janeiro (NetLab-UFRJ) apontou que, entre novembro de 2022 e janeiro de 2023, pelo menos 185 conteúdos que contestavam o resultado da eleição presidencial de 2020 e atacavam as instituições foram publicados no Facebook. Em 151, não havia nem mesmo aviso de conteúdo sensível, possivelmente com informações falsas.
"Como reconhecimento dos problemas de moderação, o próprio Comitê de Supervisão da Meta anunciou que discutiria o estudo de um caso brasileiro que foi denunciado sete vezes na plataforma e que foi mantido por revisores humanos, um vídeo postado no dia 3 de janeiro que conclamava as pessoas a sitiar o Congresso Nacional como a última alternativa em relação ao que se considerava uma fraude eleitoral. Esse conteúdo foi reproduzido mais de 18 milhões de vezes e também, obviamente, levantava uma série de dúvidas e questionamentos sobre o próprio sistema eleitoral. Esses conteúdos circularam livremente pelas plataformas digitais e nós conhecemos o resultado dessa história", disse Brant.
Criação de regras moduladas
O secretário completou dizendo que não se trata de defender uma guinada de 180 graus na legislação brasileira, mas encontrar um modelo que possibilite que as plataformas se tornem mais responsáveis pelo conteúdo que colocam nas mãos do público brasileiro. "Estabelecer uma plena responsabilidade objetiva às plataformas poderia trazer consequências problemáticas e igualmente negativas. Não podemos tratar todos os conteúdos de terceiros como conteúdos editorializados, porque isso traria prejuízos à liberdade de expressão e ao acesso à informação dos cidadãos brasileiros", explicou.
Na mesma audiência no STF, o advogado-geral da União, Jorge Messias, defendeu a necessidade de se impor maior responsabilidade e de se exigir proatividade das plataformas digitais, a partir de parâmetros claros – a exemplo da manifesta prática de crimes – para inibir a ocorrência de ilícitos na internet.
A audiência integra as discussões que estão sendo travadas nos autos dos Recursos Extraordinários nº 1.037.396 e 1.057.258, respectivamente, sob a relatoria dos ministros Dias Toffoli e Luiz Fux. Os REs tratam de regras do Marco Civil da Internet (Lei nº 12.965/2014). Em ambos os casos, foi reconhecida repercussão geral (Temas nº 987 e 533), tendo como temática central a responsabilidade civil dos provedores de aplicações por danos decorrentes de conteúdo gerado por terceiros.
De acordo com Messias, os debates são atuais e urgentes, especialmente depois dos fatos que culminaram nos ataques às instituições de Estado de 8 de janeiro. "Em que pese a utilidade das redes sociais, (…) dos mecanismos de busca e de mensagens no dia a dia de todos, é importante reconhecer que não raro, servem de palco para a prática de atos ilícitos e ameaças a direitos fundamentais", ponderou.
Combater o extremismo
O procurador-geral da União, Marcelo Eugênio Feitosa Almeida, também participou da mesa de abertura, representando a Procuradoria Nacional da União de Defesa da Democracia (PNDD). O dirigente destacou que o órgão nasce como resposta ao extremismo testemunhado pelos Três Poderes, tendo como finalidade, na representação judicial e extrajudicial da União, zelar pelas instituições democráticas, como determina a Constituição Federal. "O objetivo da PNDD, portanto, é apresentar prontas e proporcionais intervenções em casos de ataques à integridade da ação pública, de campanhas de deslegitimação dos Poderes e de desinformação contra políticas públicas. Muitas dessas manifestações antidemocráticas (…) têm ocorrido por meio de plataformas digitais e em espaços virtuais, como armas de destruição em massa da democracia", refletiu.