Plenário do STF durante sessão de julgamento — Foto: Gustavo Moreno/STF/14-11-2024 RESUMOSem tempo? Ferramenta de IA resume para você
Plenário do STF durante sessão de julgamento — Foto: Gustavo Moreno/STF/14-11-2024
GERADO EM: 03/12/2024 - 17:25
O Irineu é a iniciativa do GLOBO para oferecer aplicações de inteligência artificial aos leitores. Toda a produção de conteúdo com o uso do Irineu é supervisionada por jornalistas.
CLIQUE E LEIA AQUI O RESUMO
O Supremo Tribunal Federal (STF) volta a julgar nesta quarta-feira as três ações que tratam da responsabilidade das redes sociais pelos conteúdos publicados. O julgamento será retomado com o voto do ministro Dias Toffoli.
Na quinta-feira da semana passada,o ministro Alexandre de Moraes disse que os ataques antidemocráticos de 8 de janeiro de 2023 demonstram a "total falência" do sistema e autorregulação das plataformas de redes sociais e das big techs.
Relator de um dos casos,Toffoli começou a proferir o voto,o que será concluído nesta quarta. A afirmação de Moraes ocorreu durante a exposição de argumentos das entidades que participam do julgamento.
– O dia 8 de janeiro demonstrou a total falência do sistema de autorregulação das plataformas e todas as big techs. É faticamente impossível defender após o dia 8/1 que o sistema de autorregulação funciona. Falência total e absoluta,instrumentalização e lamentavelmente parte de conivência – observou o ministro,que ressaltou que ainda não estava votando.
Na avaliação de Moraes,a "falência" da autorregulação se deu porque toda a organização para os ataques de 8 de janeiro ocorreu nas redes sociais.
– A Praça [dos Três Poderes] invadida,o STF sendo destruído,o Congresso sendo destruído,as pessoas fazendo vídeo,chamando gente para destruir e as redes não tiravam nada,tudo monetizado. Não adiantando voto,não venham dizendo que isso é ser contra a liberdade de expressão. Tem limite a liberdade de expressão,quando ela coloca em risco a sociedade – afirmou Moraes,citando o filósofo britânico John Stuart Mill.
Segundo Moraes,o julgamento sobre a responsabilidade das plataformas é o mais importante realizado em 2024 pelo Supremo em virtude da delicadeza do tema e dos impactos futuros,inclusive para o processo eleitoral.
No início da análise,na semana passada,os ministros relatores dos casos sinalizaram a importância de que a Corte estabeleça balizas para a atuação de empresas nesta seara. O que está em discussão no julgamento é o modelo de responsabilização das plataformas pelo conteúdo de terceiros — se e em quais circunstâncias as empresas podem sofrer sanções por conteúdos ilegais postados por seus usuários.
Em uma mudança na posição que vinha defendendo anteriormente,a Advocacia-Geral da União (AGU) defendeu a exclusão de conteúdos por plataformas mesmo sem decisão judicial. O advogado-geral da União,Jorge Messias,lembrou que,à época da construção do Marco Civil da Internet,o que se discutia era a soberania do país.
– Efetivamente,nós estamos tratando de algo maior,da própria sobrevivência do Estado Democrático de Direito – disse Messias.
Dessa forma,a AGU passou a defender a inconstitucionalidade do artigo 19 do Marco Civil – o que faria com que a norma deixasse de existir. Antes,a AGU defendia a manutenção da regra,mas com algumas ressalvas sobre a remoção de conteúdo.
– Ouvindo aqui diversos representantes que me antecederam,inclusive de plataformas,que me alertaram corretamente para risco de judicialização e de litigância predatória,quero crer que o regime inaugurado pelo artigo 19 não deve ser mantido à luz da nossa Constituição – disse Messias.
Ao iniciar o seu voto,Toffoli afirmou que as redes sociais se alimentam de inverdades e estímulo ao ódio,focando exclusivamente no lucro e impulsionando conteúdos nocivos. Para o ministro,a regra permite que conteúdos prejudiciais permaneçam online por longos períodos,causando danos irreparáveis.
– Aquilo que dá like nas redes sociais não é a verdade,não são as boas ações,não são as redes de ajuda. Ao fim e ao cabo,é de business,é de dinheiro que se trata – afirmou.
Toffoli é relator de uma das ações sobre a responsabilização das plataformas que estão sob análise do Supremo desde esta quarta-feira. No recurso apresentado pelo Facebook,uma dona de casa de São Paulo acionou a Justiça após descobrir a existência de um perfil falso na rede social utilizando o nome e a imagem dela para divulgar conteúdos ofensivos.
A mulher acionou a Justiça e obteve,em primeira instância,a ordem para a exclusão da página,mas não foi indenizada. Insatisfeita,recorreu da decisão e teve sucesso. A plataforma foi,então,condenada ao pagamento,e tenta reverter a punição na Corte.
O segundo recurso que está em julgamento foi apresentado pela Google e chegou ao Supremo em 2017,depois que o antigo Orkut negou remover uma comunidade criada com o nome de uma professora de Belo Horizonte. Em 2010,ela acionou a Justiça para pedir a exclusão da comunidade e com pedido indenizatório,e ganhou em primeira e segunda instância,mas a big tech recorreu das decisões.
Já a terceira ação,relatada por Edson Fachin,trata da possibilidade de bloqueio do aplicativo de mensagens WhatsApp por decisões judiciais. Os ministros do STF discutirão se suspender o uso do serviço ofende o direito à liberdade de expressão e comunicação e o princípio da proporcionalidade.
Nesta quinta-feira,além do relator entidades inscritas como "amigas da Corte" apresentaram seus argumentos aos ministros do Supremo. A Associação Brasileira de Emissoras de Rádio e Televisão (Abert) sustentou ser inadequada a criação de uma lista de exceções que incluam a previsão de notificação extrajudicial às plataformas no artigo 19 do Marco Civil. A entidade é a favor de que o STF considere todo o dispositivo como inconstitucional.
– O que se está tratando aqui é da possibilidade de,em havendo um alerta,por qualquer pessoa,dizendo: “esse ato é ilícito”,“essa publicação fere direitos”,a plataforma terá que tomar uma decisão. Ela não está obrigada a retirar do ar. Ela está obrigada a avaliar. E deve responder pela avaliação que fizer,como fazem diariamente todos os veículos de mídia no mundo inteiro,e respondem por essa avaliação diariamente – afirmou o advogado Marcelo Lamego Carpenter,que falou em nome da Abert.
Autores dos recursos que estão sendo discutidos no STF,Facebook e Google apresentaram seus argumentos aos ministros em defesa do artigo 19 do Marco Civil,e alegaram que as empresas já dispõem de mecanismos de moderação e remoção de conteúdos,sem que haja necessidade de uma regra que permita a remoção sem decisão judicial.
Ao falar pela Meta,o advogado José Rollemberg apontou o esforço das plataformas na autorregulação,com investimentos bilionários em tecnologias e inteligência artificial para combater práticas ilícitas,como pedofilia,violência e discurso de ódio. Segundo ele,parte desse compromisso com a segurança e a integridade no ambiente digital está em regras e termos de uso "robustos".
Pela Google,o advogado Eduardo Mendonça defendeu que apesar dos excessos nas redes socais,na maioria das vezes as opiniões são exercidas dentro dos limites da legalidade. O advogado reforçou que discursos ilícitos podem ser amplificados,sendo necessário coibi-los e responsabilizar os infratores.
Para ele,o artigo 19 do Marco Civil não suprime limites e não dificulta a responsabilização dos infratores e que seu fim não acabaria com os problemas que têm que ser resolvidos. Mendonça também destacou que o dispositivo não impede que conteúdos nocivos sejam removidos sem decisão judicial prévia,procedimento que ocorre na imensa maioria dos casos.
O artigo 19 do Marco Civil,defendido pelas plataformas,diz que não cabe às plataformas decidir se os conteúdos publicados pelos usuários são lícitos ou não. De acordo com o texto legal,as empresas por trás das plataformas só poderão ser responsabilizadas nos casos em que,após ordem judicial específica,não removerem em tempo hábil conteúdo apontado como ilícito.
© Hotspots da moda portuguesa política de Privacidade Contate-nos