STF retoma julgamento sobre responsabilidade de redes sociais

Nesta quinta-feira, 5, o STF, em sessão plenária, retoma julgamento em que discute a constitucionalidade do art. 19 do marco civil da internet (lei 12.965/14) e a extensão da responsabilidade civil de redes sociais por conteúdos gerados por terceiros.

A análise foi suspensa ontem, após o início do voto-vista do ministro André Mendonça.

O julgamento, de repercussão geral, gira em torno de dois recursos extraordinários – RE 1.037.396 (Tema 987) e RE 1.057.258 (Tema 533) – que tratam da necessidade, ou não, de decisão judicial prévia para haver responsabilização das plataformas por danos decorrentes de postagens de usuários.

Ministros realizam intervalo regimental.

O que está em debate?

O art. 19 do marco civil prevê que os provedores de aplicações só respondem por danos se, após ordem judicial específica, não retirarem o conteúdo apontado como ilícito.

A controvérsia está na constitucionalidade dessa exigência, especialmente diante de casos de ilicitude manifesta – como discursos de ódio, deepfakes ou ameaças à integridade física, ou moral.

O STF analisa se esse dispositivo viola a CF por restringir indevidamente o direito à reparação de danos e favorecer a impunidade em ambientes digitais. Também se avalia se determinadas situações justificam a responsabilização direta das plataformas, mesmo sem ordem judicial, como em casos de contas falsas ou impulsionamento pago de conteúdo ofensivo.

Casos concretos

Os dois processos em análise envolvem ofensas praticadas em redes sociais:

No RE 1.037.396, o Facebook foi acionado por permitir a existência de perfil falso com ofensas a terceiros. A usuária obteve indenização na instância inferior, e a empresa recorreu ao STF defendendo a constitucionalidade do art. 19.

No RE 1.057.258, discute-se a responsabilidade do Google por manter ativa uma página ofensiva no extinto Orkut. A empresa foi condenada e também levou o caso ao Supremo.

Quais os votos até agora?

Três ministros já votaram:

Dias Toffoli, relator do RE 1.037.396, considerou o dispositivo inconstitucional por conferir imunidade excessiva às plataformas. Defendeu a responsabilização objetiva em casos graves, além da possibilidade de notificação extrajudicial como mecanismo válido para exigir providências.
Luiz Fux acompanhou a inconstitucionalidade, enfatizando que, diante de conteúdos evidentemente ilícitos – como racismo ou apologia ao golpe de Estado -, há dever de monitoramento ativo pelas empresas. Sugeriu responsabilização após notificação idônea nos casos de ofensas à honra ou privacidade.
Luís Roberto Barroso propôs uma solução intermediária. Reconheceu a inconstitucionalidade parcial do dispositivo, sugerindo exceções à regra da ordem judicial em situações de crimes graves e impulsionamento pago. Defendeu, ainda, deveres de cuidado e medidas de transparência por parte das plataformas.

Voto-vista 

Ministro André Mendonça iniciou nesta quarta-feira, 4, a leitura do voto, ainda não concluído.

S. Exa. defendeu a liberdade de expressão como direito preferencial na ordem constitucional e alertou contra o risco de censura. Ao mesmo tempo, reconheceu a necessidade de responsabilização em casos extremos, quando houver risco claro e iminente à integridade de terceiros.

Mendonça alertou que a regulação de conteúdos digitais deve partir do Congresso Nacional, não do Judiciário, e conclamou ao equilíbrio institucional e ao respeito à separação de Poderes.

Continuação do voto

Ao retomar o voto, nesta quinta-feira, 5, ministro André Mendonça propôs uma mudança de paradigma: em vez de responsabilização automática por conteúdos ilícitos, defendeu a adoção de deveres procedimentais e práticas de compliance como base da regulação constitucionalmente adequada.

S. Exa. estabeleceu distinções fundamentais entre os diferentes tipos de provedores de internet, excluindo as comunicações privadas – como as realizadas via aplicativos de mensagens – do debate sobre responsabilização.

Em seguida, diferenciou marketplaces, redes sociais e buscadores, destacando que a moderação de conteúdo varia conforme a natureza do serviço. Citou dados do Mercado Livre, que remove proativamente milhões de anúncios, para ilustrar a atuação espontânea de determinadas plataformas.

Inspirando-se em legislações europeias, como o Digital Services Act, Mendonça defendeu a segmentação regulatória com base no impacto e na função da plataforma.

No caso das redes sociais, apontou que fatores como o conteúdo da mensagem, o público-alvo e a forma de disseminação – especialmente quando impulsionada por algoritmos – devem ser considerados para fins de responsabilização. Referiu-se à escala de emissores proposta por Samuel Fonteles para mostrar que manifestações de figuras públicas merecem maior proteção constitucional.

O ministro também sustentou que a moderação automatizada de conteúdo, por meio de algoritmos, não pode substituir o julgamento humano em temas sensíveis de liberdade de expressão. Alertou para os riscos à privacidade decorrentes da vigilância algorítmica e para o uso discriminatório de perfis de usuários. Mencionou ainda falhas documentadas em sistemas de moderação, como remoções indevidas de conteúdos educativos e de minorias sociais, reforçando a tese do chilling effect.

No campo normativo, Mendonça propôs a valorização de modelos de compliance, com foco em prevenção, transparência e canais efetivos de denúncia. Citou relatórios de plataformas como Meta, Google e TikTok que demonstram ações espontâneas de moderação – com altos índices de remoções antes mesmo de qualquer denúncia -, para argumentar que a atuação judicial ou extrajudicial deve ser exceção, não regra.

Ainda, defendeu que, nos casos em que é admitida a remoção de conteúdo sem ordem judicial, o usuário tenha garantido um procedimento mínimo: decisão motivada, análise preferencialmente humana, uso excepcional de IA e possibilidade real de recurso.

S. Exa. também destacou os impactos de uma eventual declaração de inconstitucionalidade do art. 19 do marco civil sobre modelos colaborativos, como o da Wikipédia, que dependem de curadoria descentralizada.

Segundo o ministro, a responsabilização deve recair sobre o descumprimento de deveres próprios da plataforma – e não pela simples hospedagem de conteúdos de terceiros.

Link: https://www.migalhas.com.br/quentes/431984/stf-retoma-julgamento-sobre-responsabilidade-de-redes-sociais

Petrarca Advogados