Publicidade
O presidente da Câmara dos Deputados, Arthur Lira (PP-AL), afirmou no início da tarde, em entrevista ao canal Globo News, que o PL 2630/20, conhecido como PL das Fake News, deverá entrar na pauta de votação dos parlamentares entre os dias 26 e 27 de abril.
Recentemente o governo encaminhou sugestões a serem incluídas ao texto, de relatoria do deputado Orlando Silva (PCdoB-SP), com medidas voltadas à responsabilização das redes sociais por conteúdos agressivos. O debate sobre a definição de normas sobre o que pode ser exibido ou não no ambiente virtual voltou a ganhar espaço nos últimos dias após episódios de assassinatos ocorridos dentro de escolas em São Paulo (SP) e Blumenau (SC).
O PL 2630/20 está em tramitação na Câmara dos Deputados e teve requerimento de urgência rejeitado em abril do ano passado, em uma vitória da base do governo de Jair Bolsonaro e também das empresas. Divulgadas pelo portal Núcleo Jornalismo e confirmadas pelo InfoMoney, as sugestões tratam de uma nova estratégia do governo para aprovar medidas que considera emergenciais na relação com as big techs.
O documento aponta para a criação de regras que dizem respeito a plataformas que tenham mais de 10 milhões de usuários cadastrados, e indicam regulamentos para publicidade e mais transparência em relação a mecanismos de recomendação de conteúdo (algoritmo). No caso de empresas e pessoas físicas que investem em anúncios nas redes, é exigida identificação por meio de documento válido em todo território nacional, de financiadores e também de responsáveis pelo conteúdo.
“A comercialização de publicidade ou impulsionamento por plataformas digitais de conteúdo de terceiros e plataformas de publicidade programática sediados no exterior deverá ser realizada e reconhecida por sua representante no Brasil e conforme a legislação de regência da publicidade no país, quando destinada ao mercado brasileiro”, explica o texto.
Atualmente, o Marco Civil da Internet, que está em vigor desde 2014, não trata da responsabilidade direta das plataformas digitais nos conteúdos postados pelos usuários, alegando que isso poderia infringir a liberdade de expressão. No entanto, especialistas veem necessidade de um novo debate sobre um tema, uma vez que as redes sociais tomaram uma proporção muito maior no cotidiano das pessoas do que há nove anos atrás, e passaram a influenciar novos modelos de negócios e atividades econômicas, como o comércio eletrônico.
Continua depois da publicidade
No artigo 19, a legislação vigente aponta que “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário”.
As sugestões do governo que devem ser incluídas no texto determinam que as empresas indiquem como é feita a captação e tratamento de dados pessoais e dar transparência a critérios técnicos utilizados para classificar os perfis dos usuários para a recomendação de conteúdo. O texto também apresenta a possibilidade de as plataformas se associarem em uma iniciativa em conjunto que promova a autorregulação para moderação, seguindo critérios como disponibilização de canal eficiente para reclamações a partir de um órgão de ouvidoria independente.
Também é sugerida a criação de uma entidade autônoma de supervisão, a partir de iniciativa do governo, que “poderá solicitar às plataformas digitais de conteúdo de terceiros, mediante requerimento e em prazo razoável, especificado nesse pedido, acesso aos dados necessários para o acompanhamento e fiscalização”, diz o texto.
Continua depois da publicidade
No fim de março, representantes de big techs (Meta, Youtube e TikTok, entre outras) participaram de um evento em São Paulo, e defenderam a autorregulação do setor. No entanto, deixaram clara a dificuldade de criar um parâmetro de filtro a partir de termos pré-definidos, uma vez que há contextos diferentes para postagens que eventualmente utilizem as mesmas palavras, no caso de um possível mapeamento a partir de mensagens escritas.
Por outro lado, especialistas defendem que a lógica do aproveitamento pleno, empreendida pelas empresas, contraria qualquer mecanismo que dê regras mais claras à atividade. Para Laura Schertel Mendes, professora do Instituto Brasiliense de Direito Público e que também atua em estudos sobre direitos da personalidade e políticas públicas na Sociedade da Informação, a discussão sobre a responsabilização dos conteúdos publicados passa essencialmente pela governança compartilhada entre sociedade, representantes das plataformas e governo.
“Precisamos de uma regulação que seja adequada. As plataformas não são “neutras” nesse debate porque existe o algoritmo [mecanismo de direcionamento de conteúdo]”, resumiu.