O presidente da Câmara, Arthur Lira (PP-AL), afirmou que o texto anterior foi 'polemizado' e perdeu condições de ser votado.
Líderes partidários da Câmara decidiram em reunião nesta terça-feira (9) mudar o relator do projeto da Regulação das Redes Sociais e criar um grupo de trabalho para debater o assunto.
O primeiro relator do texto foi o deputado Orlando Silva (PCdoB-SP). A avaliação dos líderes é que Silva não conseguiu fazer o debate avançar e deixou seu texto se contaminar por polêmicas. Ainda não está definido quem será no novo relator.
Também não foi estabelecido um prazo para o grupo de trabalho concluir os debates sobre o novo texto.
Com a mudança de relator e a criação do grupo de trabalho, as discussões em torno do projeto devem recomeçar praticamente da estaca inicial.
O presidente da Câmara, Arthur Lira (PP-AL), afirmou após a reunião de líderes que o texto anterior foi “polemizado” e perdeu as condições de ser votado na Casa. “Simplesmente não tem acordo. Não é questão de governo e oposição. É posição individual de cada parlamentar.”
“Por mais esforço e consideração que tenhamos pelo relator Orlando, não tivemos tranquilidade e apoio parlamentar para votação no plenário da Câmara”, disse Lira. “O texto foi polemizado”, completou.
Segundo o presidente da Câmara, o grupo de trabalho funcionará por entre 30 e 45 dias. Na sequência, o projeto seguirá para o plenário da Casa.
A intenção de líderes partidários é que o texto pode se expandir para além dos temas da fake news e legislar também sobre inteligência artificial.
A discussão sobre o projeto de lei (PL) da Regulação das Redes Sociais voltou com força ao Congresso após os ataques do dono do X (antigo Twitter) ao Judiciário brasileiro.
Musk chamou o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de ditador e ameaçou descumprir ordens da Justiça e reativar contas bloqueadas no X por terem divulgado informações falsas e ataques às instituições democráticas. Os bloqueios ocorreram no curso de inquéritos dos quais Moraes é o relator.
O atual texto sobre a regulação das redes, que está na Câmara, foi aprovado pelo Senado ainda em 2020. Em 2023, estava prestes a ser votado pelos deputados, mais foi deixado de lado por falta de consenso e pressão das big techs (as grandes empresas das plataformas sociais).
O presidente do Senado, Rodrigo Pacheco (PSD-MG), na esteira dos ataques de Musk, disse nesta segunda (8) que a regulação é “inevitável”. O mesmo defende o governo. A decisão agora está com a Câmara.
O grupo de trabalho deve debater também a regulação da Inteligência Artificial. Esse ponto, atualmente, não está no PL da Regulação das Redes.
Questionado por jornalistas sobre os ataques e ameaças de Musk, Lira disse: “Não tenho nada a comentar sobre isso”.
O que prevê o projeto hoje
Com a troca do relator e a retomada dos debates, o PL deve sofrer importantes alterações. Hoje, o texto prevê os seguintes pontos principais:
A última versão do parecer protocolado por Orlando Silva na Câmara estabelece que as plataformas poderão ser responsabilizadas civilmente por conteúdos criminosos publicados por usuários, desde que seja comprovado que a empresa ignorou riscos e abriu mão de mecanismos de moderação.
A responsabilização também ocorrerá quando os conteúdos criminosos forem veiculados por meio de instrumentos pagos de impulsionamento e publicidade.
As medidas alteram o Marco Civil da Internet, que prevê que os provedores somente poderão ser responsabilizados quando, após ordem judicial, não removerem conteúdos criminosos.
Pelo texto, as empresas devem adotar um protocolo para analisar riscos relacionados às plataformas e seus algoritmos. Essa avaliação deverá abordar, por exemplo, a disseminação de conteúdos contra o Estado Democrático de Direito e publicações de cunho preconceituoso.
A partir dessa análise, as empresas terão de adotar medidas para atenuar os riscos.
O projeto também cria o chamado “dever de cuidado”, que, se ignorado, pode levar à responsabilização da plataforma. O mecanismo determina que os provedores precisam atuar de forma “diligente” para prevenir ou mitigar conteúdos ilícitos veiculados nas plataformas.
A negligência da empresa ou a identificação de riscos pode levar à abertura de um protocolo de segurança. Com o início do procedimento, as plataformas poderão ser responsabilizadas por omissões em denúncias de usuários contra conteúdos criminosos disponíveis nas redes sociais.
A moderação de conteúdo também está prevista no projeto. Segundo o texto, o procedimento deve seguir os “princípios da necessidade, proporcionalidade e não discriminação”. Estabelece, ainda, que as decisões a respeito de publicações devem ser comunicadas aos usuários, com os fundamentos da medida e os mecanismos de recurso.
A proposta estabelece que as plataformas digitais devem cumprir, em até 24 horas, as decisões judiciais de derrubada de conteúdo criminoso.
O descumprimento pode ser punido com multa de até R$ 1 milhão por hora, que pode ser triplicada se o conteúdo tiver sido impulsionado por recursos pagos.
As publicações removidas e os dados de acesso do usuário responsável pelo conteúdo deverão ser armazenados por seis meses.
Segundo o texto, a plataforma deve comunicar às autoridades indícios de ameaças à vida de uma pessoa.
Além de responsabilizações no Judiciário, as empresas que descumprirem as medidas previstas no texto poderão, por exemplo, ser punidas com:
A proposta também prevê que todas as empresas que tiverem operações no Brasil deverão ter representantes jurídicos no país.