Líderes partidários da Câmara decidiram em reunião nesta terça-feira (9) mudar o relator do projeto da Regulação das Redes Sociais e criar um grupo de trabalho para debater o assunto.
O primeiro relator do texto foi o deputado Orlando Silva (PCdoB-SP). A avaliação dos líderes é que Silva não conseguiu fazer o debate avançar e deixou seu texto se contaminar por polêmicas. Ainda não está definido quem será no novo relator.
Também não foi estabelecido um prazo para o grupo de trabalho concluir os debates sobre o novo texto.
Com a mudança de relator e a criação do grupo de trabalho, as discussões em torno do projeto devem recomeçar praticamente da estaca inicial.
O presidente da Câmara, Arthur Lira (PP-AL), afirmou após a reunião de líderes que o texto anterior foi “polemizado” e perdeu as condições de ser votado na Casa. “Simplesmente não tem acordo. Não é questão de governo e oposição. É posição individual de cada parlamentar.”
“Por mais esforço e consideração que tenhamos pelo relator Orlando, não tivemos tranquilidade e apoio parlamentar para votação no plenário da Câmara”, disse Lira. “O texto foi polemizado”, completou.
Segundo o presidente da Câmara, o grupo de trabalho funcionará por entre 30 e 45 dias. Na sequência, o projeto seguirá para o plenário da Casa.
A intenção de líderes partidários é que o texto pode se expandir para além dos temas da fake news e legislar também sobre inteligência artificial.
A discussão sobre o projeto de lei (PL) da Regulação das Redes Sociais voltou com força ao Congresso após os ataques do dono do X (antigo Twitter) ao Judiciário brasileiro.
Musk chamou o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de ditador e ameaçou descumprir ordens da Justiça e reativar contas bloqueadas no X por terem divulgado informações falsas e ataques às instituições democráticas. Os bloqueios ocorreram no curso de inquéritos dos quais Moraes é o relator.
O atual texto sobre a regulação das redes, que está na Câmara, foi aprovado pelo Senado ainda em 2020. Em 2023, estava prestes a ser votado pelos deputados, mais foi deixado de lado por falta de consenso e pressão das big techs (as grandes empresas das plataformas sociais).
O presidente do Senado, Rodrigo Pacheco (PSD-MG), na esteira dos ataques de Musk, disse nesta segunda (8) que a regulação é “inevitável”. O mesmo defende o governo. A decisão agora está com a Câmara.
O grupo de trabalho deve debater também a regulação da Inteligência Artificial. Esse ponto, atualmente, não está no PL da Regulação das Redes.
Questionado por jornalistas sobre os ataques e ameaças de Musk, Lira disse: “Não tenho nada a comentar sobre isso”.
O que prevê o projeto hoje
Com a troca do relator e a retomada dos debates, o PL deve sofrer importantes alterações. Hoje, o texto prevê os seguintes pontos principais:
- Responsabilização das redes
A última versão do parecer protocolado por Orlando Silva na Câmara estabelece que as plataformas poderão ser responsabilizadas civilmente por conteúdos criminosos publicados por usuários, desde que seja comprovado que a empresa ignorou riscos e abriu mão de mecanismos de moderação.
A responsabilização também ocorrerá quando os conteúdos criminosos forem veiculados por meio de instrumentos pagos de impulsionamento e publicidade.
As medidas alteram o Marco Civil da Internet, que prevê que os provedores somente poderão ser responsabilizados quando, após ordem judicial, não removerem conteúdos criminosos.
- Dever de cuidado
Pelo texto, as empresas devem adotar um protocolo para analisar riscos relacionados às plataformas e seus algoritmos. Essa avaliação deverá abordar, por exemplo, a disseminação de conteúdos contra o Estado Democrático de Direito e publicações de cunho preconceituoso.
A partir dessa análise, as empresas terão de adotar medidas para atenuar os riscos.
O projeto também cria o chamado “dever de cuidado”, que, se ignorado, pode levar à responsabilização da plataforma. O mecanismo determina que os provedores precisam atuar de forma “diligente” para prevenir ou mitigar conteúdos ilícitos veiculados nas plataformas.
A negligência da empresa ou a identificação de riscos pode levar à abertura de um protocolo de segurança. Com o início do procedimento, as plataformas poderão ser responsabilizadas por omissões em denúncias de usuários contra conteúdos criminosos disponíveis nas redes sociais.
A moderação de conteúdo também está prevista no projeto. Segundo o texto, o procedimento deve seguir os “princípios da necessidade, proporcionalidade e não discriminação”. Estabelece, ainda, que as decisões a respeito de publicações devem ser comunicadas aos usuários, com os fundamentos da medida e os mecanismos de recurso.
- Decisões judiciais
A proposta estabelece que as plataformas digitais devem cumprir, em até 24 horas, as decisões judiciais de derrubada de conteúdo criminoso.
O descumprimento pode ser punido com multa de até R$ 1 milhão por hora, que pode ser triplicada se o conteúdo tiver sido impulsionado por recursos pagos.
As publicações removidas e os dados de acesso do usuário responsável pelo conteúdo deverão ser armazenados por seis meses.
Segundo o texto, a plataforma deve comunicar às autoridades indícios de ameaças à vida de uma pessoa.
- Punições
Além de responsabilizações no Judiciário, as empresas que descumprirem as medidas previstas no texto poderão, por exemplo, ser punidas com:
- advertência
- multa diária de até R$ 50 milhões
- multa de até 10% do faturamento da empresa no Brasil
- multa por usuário
- multa de até R$ 50 milhões por infração
- e suspensão temporária das atividades no Brasil
A proposta também prevê que todas as empresas que tiverem operações no Brasil deverão ter representantes jurídicos no país.