STF decide manter suspensão do X no Brasil; veja como foi a votação

Os ministros Cristiano Zanin, Flávio Dino e Cármen Lúcia seguiram integralmente o voto do relator. Já Luiz Fux votou favorável à manutenção da suspensão, porém com ressalvas.

Atualizado em 02 de setembro de 2024 - 20:15

Imprimir

A 1ª Turma do Supremo Tribunal Federal (STF) decidiu nesta segunda-feira (2) manter a suspensão da rede social X, antigo Twitter. O relator da decisão é o ministro Alexandre de Moraes.

Os ministros Cristiano Zanin, Flávio Dino e Cármen Lúcia seguiram integralmente o voto do relator. Já o ministro Luiz Fux votou favorável à manutenção da suspensão, porém com ressalvas.

De acordo com o ministro Luiz Fux, a decisão não deve atingir pessoas ou empresas de forma indiscriminada e que não tenham participado da tentativa de fraudar a decisão de Moraes.

“Com manifestações vedadas pela ordem constitucional, tais como expressões reveladoras de racismo, fascismo, nazismo, obstrutoras de investigações criminais ou de incitação aos crimes em geral”, destacou. 

Entenda o Caso: Suspensão da Rede X no Brasil

Na última sexta-feira (30) a rede X, uma das plataformas de mídia social mais influentes do mundo, enfrentou uma suspensão temporária em todo o Brasil. Essa decisão gerou uma série de questionamentos e discussões. Vamos entender o que aconteceu e por que essa medida foi tomada.

A suspensão da Rede X no Brasil foi motivada por questões legais e regulatórias. As autoridades brasileiras alegaram que a plataforma não estava em conformidade com certas leis locais e regulamentos relacionados a privacidade de dados, desinformação e responsabilidade das plataformas digitais.

Especificamente, as acusações incluíam:

  • Não Conformidade com a Lei Geral de Proteção de Dados (LGPD): A rede X foi acusada de não proteger adequadamente os dados pessoais dos usuários brasileiros, violando a LGPD, que estabelece normas rigorosas sobre o tratamento de dados pessoais.
  • Disseminação de Desinformação: Houve alegações de que a plataforma não estava fazendo o suficiente para combater a propagação de informações falsas, o que poderia ter implicações negativas para a sociedade.
  • Falta de Responsabilidade na Moderação de Conteúdo: As autoridades apontaram falhas na moderação de conteúdo, o que permitiu a disseminação de discursos de ódio e outros tipos de comportamento prejudicial.