A ideia seria um regulador responsabilizar essas plataformas, e não os consumidores, pelo conteúdo monetizado, disse Brant à Reuters.
Outro objetivo é “evitar que as redes sejam utilizadas para a divulgação e promoção de conteúdos criminosos e ilícitos”, sobretudo depois dos motins de apoiantes do ex-presidente extremista de direita Jair Bolsonaro em Brasília em janeiro, alimentado pela desinformação sobre a eleição que perdeu em outubro.
Brant disse que o governo do presidente Luiz Inácio Lula da Silva também pretende responsabilizar as empresas por impedir a desinformação, discurso de ódio e outros crimes em sua conta mídia social plataformas. As plataformas não são responsabilizadas pelo conteúdo individual, mas pelo cuidado com que protegem o “ambiente digital”, disse ele em entrevista.
Brant não explicou como seria o regulador, mas disse que o governo quer regular o conteúdo monetizado e impedir que as plataformas espalhem desinformação.
“O que o órgão faria seria monitorar se as plataformas estão cumprindo bem seus compromissos e não lidar com conteúdos individuais que são postados pelos usuários. Isso tem que ser deixado para os tribunais”, disse.
Descubra as histórias de seu interesse
Brant não especificou que papel o judiciário desempenharia no combate à desinformação. Qualquer proposta exigiria mudanças no marco legal da lei de 2014 conhecida como “Marco Civil” que rege a internet Brasil e protege os direitos dos usuários.
O artigo 19 da lei isenta as plataformas de responsabilidade legal “pelos danos causados por conteúdo gerado por terceiros”, a menos que haja uma ordem judicial expressa para remover o conteúdo.
Para Brant, o quadro atual “cria um incentivo para que as plataformas não se preocupem com o espaço público de debate”.
A falta de responsabilidade pelo conteúdo que é promovido, monetizado ou apresentado como publicidade precisa ser reconsiderada, disse ele, acrescentando: “É muito ruim que eles não assumam a responsabilidade por esse conteúdo”.
O Supremo Tribunal Federal debate a constitucionalidade do artigo 19 desde 2017, com base em uma ação movida pela Meta Platforms Inc. Meta, proprietária do Facebook e do WhatsApp.
A Meta questionou sua responsabilidade por remover conteúdo sem ordem judicial em um caso envolvendo um perfil falso no Facebook. O tribunal marcou uma audiência pública sobre o assunto para 28 de março.