Agu
A Advocacia-Geral da União (AGU) protocolou uma petição no Supremo Tribunal Federal (STF) solicitando urgência no julgamento de recursos extraordinários que tratam da responsabilidade de plataformas digitais sobre o conteúdo postado por seus usuários. A AGU defende que a definição da responsabilidade das plataformas é crucial para a criação de um ambiente digital seguro e democrático, onde direitos fundamentais e valores democráticos sejam respeitados.
Na petição, a AGU pede que o STF inclua nos processos os subsídios colhidos durante a audiência pública realizada em 22 de janeiro. Nesta audiência, especialistas e entidades da sociedade civil manifestaram preocupação com as recentes mudanças nas políticas de moderação de conteúdo anunciadas pela Meta, empresa controladora de plataformas como Facebook, Instagram, WhatsApp e Threads.
A AGU argumenta que as mudanças na política de moderação da Meta, anunciadas em 7 de janeiro de 2025, podem impactar negativamente direitos fundamentais, especialmente no combate a discursos de ódio. A Advocacia-Geral da União alega que as novas regras violam garantias constitucionais e legais, além de contrariarem diretrizes internacionais de proteção aos direitos humanos.
A AGU destaca que a Meta afrouxou as regras de seus Termos de Uso, permitindo a circulação de discursos de ódio contra grupos vulneráveis, como LGBTQIA+, imigrantes, mulheres e minorias religiosas. Entre as mudanças, a empresa passou a permitir a associação de orientação sexual e identidade de gênero a transtornos mentais, além de autorizar a desumanização de mulheres e a defesa de limitações profissionais baseadas em gênero. Também foram suprimidas restrições que proibiam a intolerância explícita com base em características como raça, religião e orientação sexual.
O julgamento no STF, que discute a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/14), foi iniciado em novembro de 2024 e está atualmente suspenso após um pedido de vista do ministro André Mendonça. Até o momento (07 de Fevereiro de 2025), três ministros já votaram.
O relator de um dos recursos extraordinários, ministro José Dias Toffoli, defendeu a responsabilidade objetiva das plataformas por danos decorrentes de conteúdos ilícitos, como racismo e violência contra grupos vulneráveis, e estabeleceu deveres de transparência e prevenção para as empresas. O relator do segundo recurso sobre o mesmo tema, ministro Luiz Fux, reconheceu o dever de monitoramento ativo e remoção imediata de conteúdos criminosos, como discursos de ódio e apologia à violência. O presidente do STF, ministro Luís Roberto Barroso, defendeu que as plataformas devem ser responsabilizadas caso não adotem medidas para remover postagens.
A decisão do STF neste caso terá grande impacto no futuro da internet no Brasil, definindo o papel das plataformas digitais na moderação de conteúdo e na proteção de direitos fundamentais. A expectativa é que o julgamento seja retomado em breve, após o término do pedido de vista do ministro André Mendonça.
Um estudo sobre o isso de inteligência artificial pelas empresas, patrocinado pelo fórum empresarial da…
O Conselho Nacional de Justiça (CNJ) está prestes a dar um passo crucial na regulamentação…
1. A utilização de dados pessoais públicos em modelos de formação Os modelos de IA…
Com a chegada de um novo ano, somos convidados a refletir, redefinir prioridades e renovar…
A privacidade de dados pessoais em relação aos sistemas de inteligência artificial no Brasil é…
As empresas devem repensar estratégias de comunicação diante das ameaças externas da inteligência artificial generativa.…