Telefone:
11 97853 5494E-mail:
[email protected] Idioma:
PT-BR
Idioma:
ESP
Idioma:
ENG
26 de janeiro de 2023
O ministro da Justiça, Flávio Dino, vai entregar nos próximos dias ao presidente Luiz Inácio Lula da Silva (PT) a proposta de lei que visa responsabilizar as plataformas de internet por conteúdo em violação à Lei do Estado Democrático de Direito.
Segundo o texto, as plataformas terão o “dever de cuidado” de impedir que se dissemine conteúdo que viole a lei, ou seja, peça a abolição do Estado democrático de Direito, encoraje a violência para deposição do governo e incite, publicamente, animosidade entre as Forças Armadas e os Poderes constitucionais.
Para cumprir o “dever de cuidado”, as empresas terão de apresentar relatórios de transparência periódicos detalhando como removeram ou reduziram o alcance de conteúdo ilegal e adotar medidas de mitigação de risco de disseminação dessas publicações.
Elas também deverão remover conteúdo ilegal usando suas próprias regras de uso, que em muitos casos já vedam publicações que incitam ao golpe ou mentem sobre o processo eleitoral.
A plataforma não vai ser responsabilizada civilmente por determinadas postagens em violação. A empresa só será multada se houver descumprimento generalizado desse chamado “dever de cuidado”.
O projeto de lei adota o conceito de “dever de cuidado” previsto na regulação de internet da União Europeia, o Digital Services Act (DSA), que entra em vigor no mês que vem, na Lei da Segurança Online, do Reino Unido, e na regulação alemã de redes.
Agora, no caso de uma ordem judicial para retirada de conteúdo que viola a Lei do Estado Democrático, a proposta de lei prevê regras semelhantes à resolução adotada pelo TSE (Tribunal Superior Eleitoral) a dez dias do segundo turno da eleição presidencial de 2022.
A resolução estabelecia prazo de duas horas após notificação para remoção de publicação, sob pena de multa de R$ 100 mil a R$ 150 mil por hora de descumprimento.
O texto que estava em discussão antes era mais duro, porque obrigava as plataformas a remover antes de ordem judicial o conteúdo que viole a lei, de forma pró-ativa, sob pena de multas por publicações específicas. Com isso, não valeria o Marco Civil da Internet, que só prevê responsabilização das empresas se elas não cumprirem ordem judicial de retirada de conteúdo.
A abordagem gerou fortes reações negativas das plataformas de internet. Elas dizem que acabariam removendo muito conteúdo, em uma espécie de autocensura, para evitar multas.
“As plataformas publicam um volume muito grande de conteúdo, seria impossível detectar proativamente todas as publicações com violação e removê-las”, disse o deputado Kim Kataguiri (União Brasil-SP), integrante da Frente Digital no Congresso, alinhada às plataformas de internet.
Segundo ele, a maior preocupação é a legislação, de alguma maneira, tirar a proteção dada pelo Marco Civil da Internet.
“Não dá para regular as plataformas como se elas fossem veículos de imprensa, porque elas não têm controle sobre o que é publicado”, afirma. “As plataformas já têm boas políticas e têm investido em inteligência artificial e equipes de moderação.”
Mas levantamentos mostram que as plataformas têm sido pouco ágeis na remoção de conteúdo que viola regras de integridade cívica das próprias empresas. Segundo a agência de checagem Lupa, após dez dias, 76% dos posts golpistas denunciados pela agência seguem online nas redes.
A Lupa recebeu denúncias com 2.173 links únicos com material que serviu à organização e divulgação dos ataques violentos de 8 de janeiro. Os links remetiam a Instagram, Facebook, Twitter, YouTube, TikTok e Kwai.
No dia 18 de janeiro, segundo levantamento da Lagom Data, 76% dessas URLs seguiam no ar e podiam ser acessadas por qualquer pessoa. Alguns dos vídeos ou posts defendiam a instauração do “caos no Brasil” para que os militares pudessem intervir “aplicando a Garantia da Lei e da Ordem”.
“O dever de cuidado é um princípio central na regulação europeia da internet, o DSA, e é o caminho certo a seguir; entre outras coisas, visa a garantir que as plataformas apliquem seus próprios termos de uso, suas regras de moderação”, diz Ricardo Campos, docente na faculdade de direito da Goethe Universität .
Mas, segundo ele, a legislação deveria prever também auditoria, como no DSA, para fiscalizar se as plataformas estão realmente cumprindo seus termos de uso.
Para Campos, são infundados os receios de que legislação desse tipo levaria ao chamado “chilling effect”, a autocensura das plataformas, com efeitos negativos sobre a liberdade de expressão.
“A regulação alemã prevê o dever de cuidado e, desde que foi implementada, em 2017, não gerou censura ou excesso de remoções de conteúdo.”
Para Francisco Brito Cruz, diretor-executivo do Internet Lab, a princípio, por não prever responsabilização por um conteúdo específico, a medida em estudo não altera o cerne do Marco Civil –a principal crítica à versão anterior da medida.
Mas, segundo ele, a avaliação sobre a lei depende do conjunto de obrigações que será imposto às plataformas. “Precisamos ver se as obrigações serão mais relacionadas a transparência, ou se exigirão um monitoramento e remoção pró-ativa de conteúdo”, diz.
Ele afirma que também seria necessário ter um órgão regulador para fazer a avaliação do cumprimento das obrigações. O Reino Unido e a União Europeia têm reguladores específicos para isso. “Sem saber isso, não dá para saber se a proposta é boa ou ruim.”
A legislação sobre responsabilização das plataformas faz parte do chamado “Pacote da Democracia”, proposta de lei em reação aos ataques golpistas de 8 de janeiro.
A ideia é que o pacote englobe três projetos de lei, sendo um para regulamentação das redes sociais, outro para fazer mudanças na área penal, um para regulamentar a segurança pública do Distrito Federal e uma PEC (proposta de emenda à Constituição) para criar uma guarda nacional.
Confira matéria na Folha de SP
Compartilhar
Telefone:
11 97853 5494E-mail:
[email protected]WhatsApp us