A inconstitucionalidade parcial do art. 19 do Marco Civil da Internet: liberdade de expressão, responsabilidade das plataformas digitais e proteção de direitos fundamentais

Conteúdo do Artigo: 

 

 

The partial unconstitutionality of Article 19 of the Brazilian Civil Rights Framework for the Internet: freedom of expression, responsibility of digital platforms, and protection of fundamental rights

 

Paulo Vitor Faria da Encarnação

Mestre em Direito Processual. UFES

paulo@santosfaria.com.br

 

Resumo

O presente artigo analisa a decisão do Supremo Tribunal Federal, proferida em 26 de junho de 2025, que declarou a inconstitucionalidade parcial do art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), flexibilizando a exigência de ordem judicial prévia para a responsabilização civil de plataformas digitais por conteúdos gerados por terceiros. A decisão introduziu, no ordenamento jurídico brasileiro, elementos do modelo de notice and take down, admitindo que a omissão na remoção de conteúdo manifestamente ilícito, após notificação inequívoca, pode ensejar responsabilidade, mesmo sem determinação judicial. Partindo de uma abordagem que conjuga análise constitucional, exame jurisprudencial e avaliação prática, discute-se o impacto dessa mudança na proteção de direitos fundamentais, na preservação da liberdade de expressão e na atuação de influenciadores, anunciantes e veículos de mídia. O estudo ainda identifica os desafios de harmonização legislativa e regulatória, bem como as perspectivas de adequação empresarial por meio da adoção de boas práticas, com vistas à construção de um espaço digital mais seguro e democrático, sem sacrificar o pluralismo e a livre circulação de ideias.

Palavras-chave: Marco Civil da Internet; Supremo Tribunal Federal; responsabilidade civil; notice and take down; liberdade de expressão; direitos fundamentais; plataformas digitais.

 

Abstract

This article analyzes the decision of the Federal Supreme Court, handed down on June 26, 2025, which declared the partial unconstitutionality of Article 19 of Law No. 12,965/2014 (Internet Civil Rights Framework), relaxing the requirement for a prior court order for civil liability of digital platforms for content generated by third parties. The decision introduced elements of the notice and take down model into the Brazilian legal system, admitting that failure to remove manifestly unlawful content after unequivocal notification may give rise to liability, even without a court order. Based on an approach that combines constitutional analysis, jurisprudential examination, and practical assessment, the impact of this change on the protection of fundamental rights, the preservation of freedom of expression, and the activities of influencers, advertisers, and media outlets is discussed. The study also identifies the challenges of legislative and regulatory harmonization, as well as the prospects for business compliance through the adoption of best practices, with a view to building a safer and more democratic digital space without sacrificing pluralism and the free circulation of ideas.

Keywords: Brazilian Civil Rights Framework for the Internet; Federal Supreme Court; civil liability; notice and take down; freedom of expression; fundamental rights; digital platforms.

 

Sumário

1 Introdução — 2 A decisão do STF e a reconfiguração do art. 19 do Marco Civil da Internet — 2.1 Contexto normativo e evolução legislativa — 2.2 A “blindagem” anterior e seu alcance jurisprudencial — 3 Fundamentos constitucionais da responsabilidade das plataformas digitais — 3.1 Liberdade de expressão e proteção de direitos fundamentais — 3.2 Colisão de direitos: dignidade da pessoa humana, integridade e livre manifestação — 4 O novo paradigma de responsabilização — 4.1 O modelo de notice and take down adotado pelo STF — 4.2 Conteúdo pago, replicações sucessivas e contas inautênticas — 4.3 O dever de diligência e a aferição da culpa ou negligência — 5 Impactos jurídicos e sociais da decisão — 5.1 Efeitos sobre influenciadores, anunciantes e veículos de mídia — 5.2 Consequências para a moderação e exclusão de conteúdos — 5.3 Possíveis conflitos judiciais e riscos de excesso ou omissão — 6 A decisão e o equilíbrio entre regulação e inovação — 6.1 Desafios para a harmonização legislativa e regulatória — 6.2 Perspectivas de adequação empresarial e boas práticas — 7 Considerações finais — Referências

 

1 Introdução

A evolução tecnológica e a crescente centralidade das plataformas digitais na mediação das relações sociais, econômicas e políticas colocaram em evidência, nas últimas décadas, um conjunto de questões jurídicas complexas, sobretudo no que tange à responsabilidade civil por conteúdos gerados por terceiros. No Brasil, a Lei nº 12.965/2014, o denominado Marco Civil da Internet, constituiu marco normativo inaugural na sistematização de princípios, garantias e deveres aplicáveis à rede mundial de computadores, tendo no seu art. 19 um dos dispositivos mais debatidos, ao condicionar a responsabilização do provedor de aplicações de internet ao descumprimento de ordem judicial específica de remoção.

Esse modelo, concebido sob a justificativa de proteger a liberdade de expressão contra riscos de censura privada, estabeleceu uma barreira procedimental robusta à exclusão de conteúdos, transferindo ao Poder Judiciário a prerrogativa exclusiva de determinar a retirada de material ilícito. Contudo, a experiência prática evidenciou tensões entre essa blindagem normativa e a efetividade da tutela de outros direitos fundamentais, como a dignidade da pessoa humana, a proteção da honra e da imagem, a integridade psíquica e física, e a preservação do processo democrático contra práticas de desinformação massiva.

O Supremo Tribunal Federal, no julgamento concluído em 26 de junho de 2025, ao declarar a inconstitucionalidade parcial do art. 19, promoveu relevante inflexão interpretativa ao admitir que, em hipóteses específicas, a responsabilidade civil das plataformas decorra da omissão em remover conteúdo manifestamente ilícito após notificação inequívoca, mesmo que ausente ordem judicial prévia. Essa decisão, inspirada em elementos do modelo de notice and take down, buscou reequilibrar a ponderação entre liberdade de expressão e proteção de outros bens jurídicos de igual hierarquia constitucional.

O presente estudo tem por objetivo examinar, à luz dos fundamentos constitucionais e dos elementos constantes da decisão do STF, as implicações dessa mudança de paradigma para o ordenamento jurídico brasileiro e para a atuação dos diversos atores envolvidos — plataformas, influenciadores, anunciantes e veículos de mídia —, bem como identificar os desafios de harmonização legislativa e regulatória e as perspectivas de adequação empresarial às novas balizas. Adotar-se-á abordagem que conjuga análise normativa, exame da evolução jurisprudencial e avaliação crítica dos impactos sociais e econômicos da medida, em consonância com o método e a linguagem próprios da doutrina constitucional.

 

2 A decisão do STF e a reconfiguração do art. 19 do Marco Civil da Internet

2.1 Contexto normativo e evolução legislativa

A disciplina jurídica da responsabilidade civil das plataformas digitais, no ordenamento brasileiro, tem como marco fundamental o advento da Lei n.º 12.965, de 23 de abril de 2014, denominada Marco Civil da Internet (MCI), diploma que consolidou princípios, garantias, direitos e deveres para o uso da internet no Brasil, estabelecendo, ademais, diretrizes para a atuação estatal no setor. Entre as inovações normativas então introduzidas, destacou-se o art. 19, cujo conteúdo estabeleceu que o provedor de aplicações de internet somente poderia ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomasse as providências para tornar indisponível o material apontado como ilícito.

Tal disposição foi concebida, à época, como mecanismo protetivo à liberdade de expressão, evitando que os provedores, temendo litígios, promovessem remoções preventivas e indiscriminadas — o chamado chilling effect. Na essência, consagrou-se um modelo de responsabilização subsidiária e condicionada, de nítido caráter judicialista, em contraste com sistemas estrangeiros que adotam a lógica de notice and take down, em que a comunicação extrajudicial suficiente e clara impõe ao provedor o dever de agir diligentemente sob pena de responsabilização.

O regime estabelecido pelo art. 19, contudo, não permaneceu imune a críticas doutrinárias e pressões sociais. Diversos setores, especialmente ligados à proteção de direitos fundamentais como a dignidade da pessoa humana, a proteção da infância e da adolescência, e a preservação da integridade do processo democrático, apontaram que o modelo excessivamente dependente de decisão judicial criava barreiras para a tutela célere de situações de dano irreparável ou de risco iminente.

A jurisprudência, por sua vez, começou a enfrentar casos-limite, nos quais a exigência formal de ordem judicial específica revelava-se incompatível com a gravidade da ofensa e a urgência da resposta, notadamente em situações envolvendo discurso de ódio, desinformação massiva e violações de direitos da personalidade. Essa tensão entre o texto legal e as demandas concretas do ambiente digital contemporâneo, marcado pela instantaneidade e pelo alcance exponencial das comunicações, acabou por alimentar o debate sobre a necessidade de revisão do modelo normativo.

Foi nesse cenário que o Supremo Tribunal Federal, no julgamento concluído em 26 de junho de 2025, procedeu à declaração de inconstitucionalidade parcial do art. 19 do MCI, reconhecendo que, em determinadas hipóteses, a responsabilização do provedor pode decorrer da omissão em remover conteúdo ilícito após notificação inequívoca, ainda que não precedida de ordem judicial. Com isso, operou-se relevante inflexão na trajetória legislativa e interpretativa do dispositivo, deslocando-se, ao menos em parte, o eixo de proteção do provedor para a tutela direta e imediata dos direitos fundamentais em conflito no espaço virtual.

 

2.2 A “blindagem” anterior e seu alcance jurisprudencial

O art. 19 do Marco Civil da Internet, em sua redação original, foi concebido como cláusula de contenção da responsabilidade civil dos provedores de aplicações, estabelecendo verdadeira “blindagem” contra imputações diretas por conteúdos gerados por terceiros. Tal blindagem decorria da exigência de prévia ordem judicial específica para que se configurasse o dever de remoção e, por consequência, a responsabilização. Nessa configuração, a atuação do provedor permanecia, por assim dizer, em estado de neutralidade jurídica até a provocação jurisdicional, não sendo suficiente, para deflagrar sua obrigação de agir, qualquer comunicação extrajudicial, por mais precisa e documentada que fosse.

O fundamento declarado dessa solução normativa residia na preservação da liberdade de expressão como valor constitucional primário, bem como na intenção de evitar que provedores assumissem função de censores privados, submetendo a circulação de ideias e manifestações a filtros unilaterais, marcados pela insegurança jurídica e pelo risco de supressão indevida de conteúdos lícitos. A jurisprudência dos tribunais superiores, em especial do Superior Tribunal de Justiça, aderiu a essa leitura, consolidando, em diversos precedentes, a orientação segundo a qual somente o descumprimento de ordem judicial clara e específica poderia gerar responsabilidade indenizatória para a plataforma.

O alcance dessa blindagem jurisprudencial manifestava-se, pois, em três dimensões distintas: i) a exigência de ordem judicial nominando com precisão o conteúdo a ser removido, vedadas indicações genéricas; ii) a impossibilidade de responsabilização por omissão fundada apenas em notificações privadas ou informes administrativos, ainda que detalhados; e iii) a desconsideração, para fins de responsabilidade civil, de alegações de danos ocorridos no intervalo entre a ciência extrajudicial e a decisão judicial.

Esse entendimento, embora coerente com a literalidade do art. 19 e com a matriz liberal que o inspirou, revelava-se insuficiente diante da dinâmica dos danos digitais, nos quais a velocidade de disseminação e o potencial lesivo de certas publicações inviabilizam a espera por uma tutela jurisdicional definitiva. A consequência prática era a manutenção, no ambiente virtual, de conteúdos notoriamente ilícitos por lapsos de tempo suficientes para consolidar efeitos danosos de grande magnitude, especialmente em contextos de ofensa à honra, violação de direitos da criança e do adolescente, e propagação massiva de desinformação.

Assim, a “blindagem” conferida pelo modelo original, robustecida pela interpretação jurisprudencial predominante, acabou por gerar, na percepção social e doutrinária, uma assimetria: se, por um lado, reduzia o risco de supressão indevida da liberdade de expressão, por outro, comprometia a efetividade da tutela de outros direitos fundamentais igualmente protegidos pela Constituição, impondo ao lesado o ônus de suportar, até a ordem judicial, a continuidade da violação em ambiente de alta exposição pública. Essa tensão constituiu o pano de fundo sobre o qual o Supremo Tribunal Federal viria a intervir, redesenhando os contornos da responsabilidade civil dos provedores em seu julgamento de 2025.

 

3 Fundamentos constitucionais da responsabilidade das plataformas digitais

3.1 Liberdade de expressão e proteção de direitos fundamentais

A liberdade de expressão ocupa, no sistema constitucional brasileiro, posição de proeminência, sendo assegurada pelo art. 5.º, incisos IV, IX e XIV, bem como pelo art. 220 da Constituição da República, que consagram, de modo abrangente, a livre manifestação do pensamento, a livre comunicação e a vedação de qualquer censura de natureza política, ideológica ou artística. Trata-se, pois, de garantia que constitui pressuposto indispensável ao funcionamento do regime democrático e ao exercício da cidadania, na medida em que possibilita a circulação de ideias, opiniões e informações, sem a qual não se realiza o pluralismo político, valor fundante do Estado Democrático de Direito.

Todavia, a proteção da liberdade de expressão não se apresenta como prerrogativa absoluta. A própria ordem constitucional impõe limites quando o seu exercício importa violação a outros direitos igualmente fundamentais, como a dignidade da pessoa humana (art. 1.º, III), a inviolabilidade da intimidade, da vida privada, da honra e da imagem (art. 5.º, X) e a proteção integral de crianças e adolescentes (art. 227). A tensão entre tais direitos revela o núcleo da problemática em exame: a necessidade de estabelecer critérios e parâmetros que permitam a harmonização entre a garantia de livre manifestação e a tutela eficaz dos demais bens jurídicos de igual estatura constitucional.

A jurisprudência nacional, especialmente no âmbito do Supremo Tribunal Federal, tem reiteradamente afirmado que a liberdade de expressão goza de primazia no conflito com outros direitos, devendo ser restringida apenas em hipóteses excepcionais e devidamente justificadas. No entanto, essa primazia não significa prevalência irrestrita, sendo possível – e necessário – o controle de conteúdos manifestamente ilícitos, cuja manutenção no espaço público digital produza danos concretos e relevantes.

No contexto das plataformas digitais, essa ponderação adquire contornos singulares. A natureza global, descentralizada e de alta velocidade de disseminação de informações torna potencialmente mais graves e imediatos os efeitos de discursos abusivos, discriminatórios ou deliberadamente falsos, capazes de afetar a honra individual, desestabilizar processos eleitorais ou incitar violência. A manutenção de um modelo excessivamente dependente da intervenção judicial, como se observava sob a égide do art. 19 do Marco Civil da Internet em sua redação original, implicava, em muitas situações, a perpetuação desses danos por lapsos temporais incompatíveis com a efetividade da tutela jurisdicional.

Nesse sentido, a decisão do STF de 2025, ao flexibilizar a exigência de ordem judicial como condição para a responsabilização dos provedores em determinadas hipóteses, buscou concretizar a proteção de direitos fundamentais que, embora distintos, possuem igual dignidade e hierarquia normativa. A liberdade de expressão, compreendida como vetor essencial da democracia, permanece resguardada; todavia, deixa de ser invocada como barreira intransponível à tutela de direitos fundamentais que reclamam resposta imediata, notadamente em casos de conteúdos cuja ilicitude se mostre evidente e cujo potencial lesivo demande ação pronta e diligente.

 

3.2 Colisão de direitos: dignidade da pessoa humana, integridade e livre manifestação

A colisão entre direitos fundamentais é fenômeno inerente ao sistema constitucional, especialmente quando valores de igual hierarquia e dignidade reclamam proteção simultânea. No campo da comunicação digital, essa tensão manifesta-se de forma acentuada entre a liberdade de expressão, de um lado, e a dignidade da pessoa humana, a integridade física e psíquica e a proteção de grupos vulneráveis, de outro. Trata-se de antagonismo que não se resolve por meio da simples prevalência de um direito sobre o outro, mas que demanda o emprego da técnica da ponderação, a fim de assegurar que a restrição imposta a um seja proporcional e necessária à proteção do outro.

A dignidade da pessoa humana, erigida a fundamento da República (art. 1.º, III, da Constituição Federal), constitui núcleo axiológico que irradia efeitos sobre toda a ordem jurídica, impondo limites a qualquer manifestação que reduza o indivíduo a objeto, exponha-o a humilhações, discriminação ou violência. A integridade, compreendida em sua dimensão física, moral e psicológica, é igualmente tutelada por dispositivos constitucionais expressos, como o art. 5.º, incisos III, V e X, que vedam tratamentos desumanos ou degradantes, asseguram indenização por danos morais e materiais e protegem a honra e a imagem das pessoas.

Quando tais direitos colidem com a livre manifestação do pensamento, o intérprete não pode adotar postura de neutralidade absoluta, sob pena de permitir que a liberdade se converta em instrumento de opressão. É justamente nesse ponto que a atuação das plataformas digitais assume relevância: ao servirem de veículos para a difusão de conteúdos, devem, em determinadas hipóteses, exercer um dever de cuidado que, se negligenciado, potencializa a violação a direitos fundamentais de terceiros.

O regime anterior, consolidado pela interpretação restritiva do art. 19 do Marco Civil da Internet, ao condicionar a remoção de conteúdos à prévia ordem judicial, conferia ampla proteção à livre manifestação, mas, simultaneamente, retardava a tutela de situações em que a violação à dignidade e à integridade era evidente e gravemente lesiva. Essa blindagem normativa e jurisprudencial, como já exposto, produzia um cenário em que a liberdade de expressão, compreendida de forma absoluta, acabava por sufocar outros direitos igualmente consagrados pela Constituição, esvaziando, em determinados casos, a própria eficácia da cláusula da dignidade humana.

A decisão do Supremo Tribunal Federal, ao declarar a inconstitucionalidade parcial do referido dispositivo legal, reconfigurou esse equilíbrio, permitindo que, em situações específicas — notadamente quando a ilicitude do conteúdo seja manifesta e a urgência da resposta se imponha —, a proteção da dignidade e da integridade prevaleça sobre a liberdade de expressão. Não se trata, evidentemente, de subordinar esta àqueles de forma perene, mas de reconhecer que, na prática constitucional, a harmonização entre direitos fundamentais exige que nenhum deles se imponha de modo a anular a essência do outro.

Com isso, a Corte reafirmou a compreensão de que a liberdade de expressão, embora central ao regime democrático, não é valor absoluto, devendo ser exercida em conformidade com o dever de respeito à dignidade da pessoa humana e à integridade individual e coletiva, pilares igualmente indispensáveis à ordem constitucional.

 

4 O novo paradigma de responsabilização

4.1 O modelo de notice and take down adotado pelo STF

A decisão do Supremo Tribunal Federal, proferida em 26 de junho de 2025, ao declarar a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet, introduziu, no ordenamento jurídico brasileiro, um deslocamento paradigmático no tratamento da responsabilidade civil das plataformas digitais, aproximando-o do modelo conhecido como notice and take down. Esse sistema, consagrado em legislações estrangeiras — notadamente no Digital Millennium Copyright Act norte-americano e em normas europeias sobre serviços digitais —, funda-se na premissa de que a responsabilização do provedor pode advir de sua inércia em remover conteúdo ilícito após receber notificação inequívoca, sem a necessidade de prévia ordem judicial.

O modelo adotado pelo STF não configura, todavia, transposição integral das experiências externas. A Corte estabeleceu balizas rigorosas para que a notificação, apta a gerar o dever de remoção e, por conseguinte, a responsabilidade, seja juridicamente eficaz: a comunicação deve conter identificação clara e inequívoca do conteúdo apontado como ilícito, a indicação precisa de sua localização (URL ou equivalente) e a descrição objetiva da natureza da ilicitude, acompanhada, quando possível, de elementos comprobatórios.

Ao fazê-lo, o Supremo buscou evitar dois riscos inerentes ao notice and take down irrestrito: i) a supressão arbitrária ou abusiva de conteúdos lícitos, por temor de responsabilização, o que configuraria censura privada; ii) a instrumentalização do mecanismo para inviabilizar o debate público e a circulação de informações de interesse coletivo. Nesse sentido, o dever de diligência imposto às plataformas não é absoluto, mas condicionado à clareza e precisão da denúncia e à evidência da ilicitude.

A adoção desse modelo implica, na prática, atribuir às plataformas digitais papel mais ativo na moderação de conteúdos, exigindo-lhes não apenas capacidade técnica para remover publicações de forma célere, mas também estruturas internas de análise capazes de identificar, de modo minimamente qualificado, se a notificação recebida atende aos requisitos fixados e se o conteúdo em questão ostenta ilicitude manifesta. A omissão, diante de denúncia que preencha tais critérios, passa a configurar conduta culposa ou negligente, ensejando a responsabilização civil.

Com isso, o STF procedeu a uma recalibração do equilíbrio entre liberdade de expressão e proteção de outros direitos fundamentais, reconhecendo que, no ambiente comunicacional digital, a exigência de ordem judicial prévia, como condição exclusiva para a responsabilização, não mais se mostra compatível com a necessidade de respostas rápidas e proporcionais a danos potencialmente irreparáveis. Trata-se, portanto, de um avanço interpretativo que, sem abolir a tutela jurisdicional como garantia contra remoções abusivas, introduz mecanismo célere e subsidiário para a tutela de direitos no espaço virtual.

 

4.2 Conteúdo pago, replicações sucessivas e contas inautênticas

A decisão do Supremo Tribunal Federal, ao redefinir o alcance do art. 19 do Marco Civil da Internet, não se limitou a estabelecer o dever de diligência genérico das plataformas diante de conteúdos manifestamente ilícitos. Reconheceu, igualmente, a necessidade de considerar, na aferição da responsabilidade civil, determinadas modalidades de difusão que, pela sua natureza ou estrutura, potencializam os efeitos lesivos e ampliam a dificuldade de contenção da violação. Entre essas modalidades, destacam-se o conteúdo pago, as replicações sucessivas e a atuação de contas inautênticas.

O conteúdo pago, que abrange anúncios patrocinados, posts promovidos e quaisquer outras formas de impulsionamento remunerado, reveste-se de particular relevância jurídica por duas razões. Primeiro, porque sua circulação decorre de decisão consciente e deliberada do provedor, que, ao intermediar e auferir lucro pela veiculação, assume posição mais próxima da coparticipação no ato lesivo. Segundo, porque a segmentação e o alcance ampliado proporcionados por tais mecanismos acentuam o potencial danoso da mensagem, tornando imperiosa uma postura mais proativa de análise e remoção. Assim, a Corte sinalizou que, nesses casos, o dever de agir não se limita à mera recepção de denúncia qualificada, mas pode ser antecipado pela própria política interna da plataforma, em atenção ao risco acentuado de lesão.

Quanto às replicações sucessivas, a realidade do ambiente digital evidencia que a manutenção de um conteúdo ilícito, mesmo que originariamente postado por um único usuário, tende a gerar um efeito multiplicador, em que múltiplas cópias ou variações do material são produzidas e disseminadas em curto espaço de tempo. Tal fenômeno — conhecido em alguns ordenamentos como reuploads — impõe às plataformas não apenas a remoção pontual, mas a adoção de medidas técnicas capazes de identificar e impedir novas publicações substancialmente idênticas. A omissão nesse campo pode configurar negligência, sobretudo quando a continuidade das replicações resulta em prolongamento e agravamento do dano.

Por fim, as contas inautênticas — perfis criados com identidade falsa ou para fins de manipulação coordenada de discurso — representam fator adicional de risco para a integridade do debate público e para a proteção de direitos individuais. Ao reconhecer esse elemento, o STF acentuou que a existência de rede organizada de perfis falsos, destinada a amplificar conteúdo ilícito, exige atuação célere e coordenada da plataforma, que deve promover a identificação e a suspensão dessas contas, evitando a perpetuação artificial do alcance e da repercussão de mensagens ofensivas ou fraudulentas.

Ao tratar dessas três modalidades, o Tribunal reforçou que a responsabilidade das plataformas não pode ser aferida de forma uniforme e abstrata, devendo levar em conta a forma específica de difusão do conteúdo e a intensidade do risco por ela gerado. Dessa forma, o conteúdo pago, as replicações sucessivas e as contas inautênticas passam a integrar, no plano jurisprudencial, categorias que demandam especial vigilância e resposta mais rigorosa, como corolário do dever de cuidado imposto pelo novo regime interpretativo.

 

4.3 O dever de diligência e a aferição da culpa ou negligência

O deslocamento interpretativo promovido pelo Supremo Tribunal Federal, ao reconhecer hipóteses de responsabilização das plataformas digitais independentemente de prévia ordem judicial, impõe a estas um dever jurídico positivo de diligência, cujo descumprimento poderá ensejar a imputação de culpa ou negligência. Tal dever, embora já presente de forma implícita na lógica contratual e no regime geral da responsabilidade civil, adquire contornos mais nítidos e exigentes diante da função social desempenhada por esses agentes na intermediação do discurso público contemporâneo.

O dever de diligência consiste, em sua essência, na obrigação de agir com a atenção, a cautela e os meios técnicos que se espera de um operador qualificado e consciente dos riscos inerentes à sua atividade. No contexto das plataformas digitais, isso significa dispor de mecanismos eficientes para recepção, processamento e verificação de notificações de conteúdo potencialmente ilícito, garantindo resposta célere e proporcional à gravidade da alegação. A omissão, nesses casos, deixa de ser mero lapso administrativo e passa a caracterizar conduta reprovável, pois perpetua a exposição do conteúdo ofensivo e amplia os danos dele decorrentes.

A aferição da culpa ou negligência, no novo modelo, não se resume a verificar se a plataforma foi formalmente cientificada do ilícito, mas envolve a análise das circunstâncias concretas que cercam a denúncia e a resposta oferecida. Elementos como o tempo decorrido entre a notificação e a remoção, a clareza das informações fornecidas pelo denunciante, a natureza e a gravidade do conteúdo, bem como a reincidência de casos semelhantes, tornam-se relevantes para aferir o grau de diligência efetivamente empregado.

Nesse quadro, ganha relevo o conceito de “ilicitude manifesta”, segundo o qual, diante de conteúdo cuja ilegalidade seja patente — por exemplo, material de abuso sexual infantil, incitação pública à prática de crimes, divulgação não autorizada de imagens íntimas —, a ausência de ação imediata da plataforma configura negligência grave, independentemente de maior aprofundamento probatório. Por outro lado, quando a suposta ofensa envolve juízo de valor ou apreciação contextual complexa, a diligência poderá se traduzir na busca de orientação jurídica interna ou externa antes da supressão do conteúdo, sem que isso implique automaticamente culpa pelo eventual lapso temporal.

Ao estabelecer essa matriz de análise, o STF não apenas impôs um padrão de conduta mais elevado às plataformas, como também reforçou o caráter funcional do dever de diligência: trata-se de instrumento destinado a garantir a efetividade da tutela de direitos fundamentais, equilibrando-a com a preservação da liberdade de expressão. A aferição da culpa ou negligência, nesse sentido, deixa de ser operação meramente formal para assumir a feição de juízo substancial, voltado a verificar se a conduta da plataforma, diante de um caso concreto, foi compatível com a expectativa de proteção jurídica que a Constituição e a legislação lhe impõem.

 

5 Impactos jurídicos e sociais da decisão

5.1 Efeitos sobre influenciadores, anunciantes e veículos de mídia

A decisão do Supremo Tribunal Federal, ao redimensionar a responsabilidade civil das plataformas digitais mediante a flexibilização da exigência de ordem judicial prévia, projeta reflexos diretos sobre a atuação de influenciadores, anunciantes e veículos de mídia que operam no ambiente virtual. Estes agentes, embora distintos na natureza de sua atividade, compartilham a característica de serem produtores ou promotores de conteúdo com potencial de amplo alcance, circunstância que os coloca em posição de maior visibilidade e, por conseguinte, de maior suscetibilidade à incidência do novo regime.

No caso dos influenciadores digitais, cuja notoriedade e interação com o público se materializam em postagens, transmissões ao vivo e outros formatos de engajamento, a decisão implica a necessidade de rever práticas de divulgação, parcerias e patrocínios. Conteúdos patrocinados ou impulsionados, pela sua natureza remunerada e direcionada, tornam-se mais sensíveis ao escrutínio jurídico, pois se presume que o influenciador, ao firmar contrato de publicidade, exerce controle sobre a mensagem veiculada. A persistência na manutenção de material ilícito, mesmo após notificação inequívoca, pode ensejar responsabilização solidária com a plataforma, sobretudo quando haja indícios de que o beneficiário do conteúdo patrocinado tenha anuído ou se omitido dolosa ou culposamente quanto à sua continuidade.

Para os anunciantes, a reconfiguração jurisprudencial amplia a responsabilidade indireta, impondo-lhes a adoção de mecanismos internos de compliance para selecionar influenciadores e canais de divulgação, monitorar a execução das campanhas e estabelecer cláusulas contratuais específicas sobre conduta e remoção de conteúdo. Em ambiente regulatório mais sensível à rapidez da resposta, a inércia do anunciante, ciente da ilicitude, pode ser interpretada como conivência, implicando riscos à sua reputação e à sua integridade patrimonial.

Quanto aos veículos de mídia — sejam eles portais jornalísticos, canais audiovisuais ou plataformas independentes de produção de conteúdo —, a decisão do STF demanda o fortalecimento de políticas editoriais e procedimentos internos voltados à identificação e correção célere de conteúdos potencialmente ilícitos. Ainda que se reconheça a proteção constitucional à liberdade de imprensa, é inegável que a circulação digital de matérias, reportagens ou colunas de opinião passa a estar sujeita ao mesmo dever de diligência que vincula as demais modalidades de difusão online.

Assim, o novo paradigma impõe a todos esses agentes a internalização de um protocolo de gestão de riscos digitais, que inclua a triagem prévia de conteúdo patrocinado, a verificação contínua de postagens e a atuação imediata diante de notificações idôneas. A lógica instaurada pelo STF desloca a responsabilidade de uma postura meramente reativa para um modelo preventivo, no qual a vigilância ativa sobre a integridade das publicações se apresenta como condição indispensável para a mitigação de riscos jurídicos e reputacionais.

 

5.2 Consequências para a moderação e exclusão de conteúdos

A redefinição interpretativa do art. 19 do Marco Civil da Internet, promovida pelo Supremo Tribunal Federal, introduz um novo parâmetro de atuação para as plataformas digitais no tocante à moderação e exclusão de conteúdos. Sob o regime anterior, a exigência de ordem judicial específica como condição para a responsabilização civil resultava em um modelo predominantemente reativo, no qual a intervenção da plataforma somente se impunha diante de comando jurisdicional formal. O novo entendimento, ao admitir a responsabilização por omissão diante de notificação extrajudicial qualificada, altera substancialmente essa lógica e impõe uma postura mais proativa na gestão de conteúdos ilícitos.

No plano prático, isso significa que as plataformas passam a assumir, em maior medida, a função de árbitros iniciais na triagem de conteúdos que lhes sejam denunciados, devendo avaliar a pertinência e a verossimilhança das alegações à luz de critérios objetivos e previamente estabelecidos. Tal exigência impõe a implementação de mecanismos técnicos mais sofisticados, aptos a identificar com rapidez não apenas o conteúdo originalmente denunciado, mas também suas eventuais replicações ou adaptações destinadas a contornar filtros automáticos.

A consequência imediata dessa mudança é o aumento da responsabilidade operacional das plataformas, que precisarão estruturar equipes capacitadas para a análise jurídica e factual das notificações recebidas, bem como para a adoção de medidas proporcionais — seja a remoção imediata, quando a ilicitude for manifesta, seja a manutenção temporária do conteúdo até a obtenção de esclarecimentos adicionais, nos casos em que a avaliação dependa de maior contextualização.

Esse novo paradigma também suscita a necessidade de revisão das políticas internas de moderação, que deverão contemplar protocolos claros para a resposta a notificações idôneas, prazos definidos para a tomada de decisão e canais acessíveis aos usuários para contestar remoções que considerem indevidas. Ao mesmo tempo, reforça-se o dever de transparência, impondo às plataformas a obrigação de informar, de maneira precisa e motivada, as razões que fundamentaram a exclusão ou a manutenção do conteúdo denunciado.

Cumpre observar, todavia, que a ampliação do poder-dever de moderação não pode ser interpretada como autorização irrestrita para a supressão de conteúdos, sob pena de se converter em instrumento de censura privada. O equilíbrio entre a celeridade na proteção de direitos e a preservação da liberdade de expressão exige que a moderação se mantenha vinculada a parâmetros objetivos, evitando a remoção arbitrária de manifestações lícitas, ainda que polêmicas ou impopulares.

Dessa forma, a decisão do STF projeta uma dupla consequência para a moderação e exclusão de conteúdos: de um lado, fortalece a capacidade de resposta rápida diante de violações evidentes; de outro, impõe às plataformas a responsabilidade de agir com prudência, proporcionalidade e fundamentação, de modo a assegurar que a tutela de direitos fundamentais não seja obtida à custa da supressão indevida do debate público e do pluralismo de ideias.

 

5.3 Possíveis conflitos judiciais e riscos de excesso ou omissão

A reconfiguração interpretativa do art. 19 do Marco Civil da Internet, operada pelo Supremo Tribunal Federal, embora tenha buscado aprimorar a tutela de direitos fundamentais no ambiente digital, inevitavelmente ensejará novas frentes de litigiosidade, tanto no que diz respeito à delimitação do dever de diligência das plataformas quanto à aferição da licitude ou ilicitude de conteúdos. O deslocamento de um modelo exclusivamente judicialista para um sistema que admite responsabilização por omissão diante de notificação extrajudicial qualificada amplia o espaço para controvérsias sobre a suficiência, a clareza e a precisão dessas comunicações, bem como sobre a tempestividade e adequação da resposta da plataforma.

Entre os principais pontos de tensão judicial destaca-se a definição do que constitui “ilicitude manifesta” apta a impor a remoção imediata. A ausência de parâmetros normativos estritos abre margem a interpretações divergentes, o que pode gerar, de um lado, remoções sumárias de conteúdos que, em sede jurisdicional, venham a ser considerados lícitos, e, de outro, a manutenção indevida de publicações lesivas sob a alegação de dúvida razoável quanto à sua natureza. Ambas as hipóteses alimentam riscos de responsabilização: no primeiro caso, pela supressão indevida de manifestação protegida; no segundo, pela omissão em face de violação inequívoca de direitos.

Outro vetor de conflitos reside na ponderação entre a celeridade exigida na retirada de conteúdos e a necessidade de assegurar ao autor ou divulgador oportunidade de contraditório e defesa. A adoção precipitada de medidas restritivas, sem o devido cuidado na análise do contexto, pode ser interpretada como excesso, especialmente quando a moderação recai sobre críticas legítimas, manifestações políticas ou debates de interesse público. Por outro lado, a hesitação excessiva, ainda que motivada por prudência, pode ser enquadrada como negligência quando a ofensa ou o dano potencial se revelam evidentes e de gravidade acentuada.

As plataformas, nesse cenário, enfrentam o desafio de estruturar processos internos capazes de equilibrar esses polos de risco, criando protocolos claros para triagem, análise e decisão, sem que a busca por segurança jurídica paralise a resposta diante de situações urgentes. Ainda assim, mesmo com tais medidas, é previsível que as cortes sejam chamadas a decidir, reiteradamente, sobre casos-limite, consolidando jurisprudência sobre a caracterização da culpa ou negligência e sobre os contornos da liberdade de expressão frente a outros direitos fundamentais.

Portanto, o novo regime não apenas desloca a responsabilidade para um plano mais ativo de atuação das plataformas, mas também inaugura uma fase de maior incerteza normativa e processual, na qual o excesso e a omissão, igualmente censuráveis, serão objeto de apreciação judicial contínua, moldando, caso a caso, a aplicação prática das balizas fixadas pelo Supremo Tribunal Federal.

 

6 A decisão e o equilíbrio entre regulação e inovação

6.1 Desafios para a harmonização legislativa e regulatória

A decisão do Supremo Tribunal Federal que mitigou a “blindagem” conferida pelo art. 19 do Marco Civil da Internet projeta, no plano normativo, o desafio de integrar o novo entendimento jurisprudencial ao sistema legal vigente, evitando contradições internas e assegurando coerência regulatória. A harmonização legislativa e regulatória impõe, de início, a revisão da própria redação do dispositivo, de modo a refletir, de forma expressa, as hipóteses em que a responsabilidade civil das plataformas pode ser reconhecida independentemente de ordem judicial, observadas as balizas fixadas pela Corte.

A dificuldade reside, em primeiro lugar, no desenho de critérios suficientemente objetivos para qualificar a “notificação inequívoca” que desencadeia o dever de remoção. Ausentes tais parâmetros em lei, corre-se o risco de fragmentação interpretativa, com decisões judiciais díspares acerca da suficiência da comunicação e do grau de diligência exigível. Essa lacuna pode comprometer a segurança jurídica e fomentar litigiosidade excessiva, além de criar incentivos para condutas defensivas que resultem na supressão indevida de conteúdos lícitos.

Outro ponto sensível é a articulação entre o novo modelo de notice and take down e outros marcos normativos incidentes sobre a comunicação digital, como a Lei Geral de Proteção de Dados Pessoais (Lei n.º 13.709/2018), a legislação eleitoral e as normas setoriais de defesa do consumidor. Em diversas hipóteses, a atuação diligente exigida do provedor no contexto do art. 19 poderá conflitar com obrigações concorrentes previstas nesses diplomas, demandando harmonização que evite sobreposição de competências e duplicidade de exigências.

No campo regulatório, a harmonização passa pelo alinhamento entre a atuação judicial e as diretrizes expedidas por órgãos administrativos com competência sobre o ambiente digital, a exemplo da Autoridade Nacional de Proteção de Dados (ANPD) e do Conselho Administrativo de Defesa Econômica (CADE). A ausência de coordenação entre essas instâncias pode gerar insegurança para plataformas e usuários, seja pela imposição de obrigações contraditórias, seja pela dificuldade de cumprimento simultâneo de exigências divergentes.

Finalmente, impõe-se considerar o desafio de compatibilizar o novo regime com compromissos internacionais assumidos pelo Brasil, especialmente em matéria de comércio eletrônico, direitos autorais e cooperação jurídica. A adoção de um modelo nacional descolado das práticas majoritárias pode dificultar a interoperabilidade regulatória e aumentar os custos de conformidade para provedores estrangeiros, com repercussões sobre a oferta de serviços no país.

Assim, a harmonização legislativa e regulatória não se limita à alteração formal do texto legal, mas envolve a construção de um quadro normativo integrado, capaz de assegurar previsibilidade e estabilidade na aplicação do direito, preservando, ao mesmo tempo, a efetividade da tutela de direitos fundamentais e a integridade do espaço público digital.

 

6.2 Perspectivas de adequação empresarial e boas práticas

A reconfiguração do regime de responsabilidade civil das plataformas digitais, operada pela decisão do Supremo Tribunal Federal, impõe ao setor privado não apenas a revisão de seus protocolos internos de moderação, mas também a adoção de estratégias estruturais de governança que assegurem conformidade com as novas exigências jurídicas. A perspectiva de adequação empresarial, nesse contexto, demanda a incorporação de mecanismos permanentes de prevenção, resposta e transparência, de modo a conciliar a proteção de direitos fundamentais com a preservação da liberdade de expressão e a manutenção da confiança dos usuários.

O primeiro vetor dessa adequação reside na implementação de canais de notificação acessíveis, claros e eficientes, capazes de receber comunicações de conteúdo potencialmente ilícito com os elementos mínimos fixados pelo STF — identificação precisa do material, sua localização e a descrição objetiva da ilicitude. Não basta, entretanto, dispor desses canais; é imprescindível que haja equipes treinadas para triagem e análise preliminar, aptas a decidir, com base em critérios técnicos e jurídicos, sobre a pertinência e urgência da remoção ou manutenção do conteúdo.

No plano operacional, a adoção de tecnologias de content tracking e filtros inteligentes pode contribuir para a identificação de replicações sucessivas e a neutralização de contas inautênticas, fenômenos destacados pela Corte como agravantes do risco de lesão. Tais ferramentas, contudo, devem ser calibradas de forma a evitar bloqueios automáticos indevidos, garantindo que a intervenção preserve o núcleo essencial da liberdade de expressão.

Outro aspecto relevante consiste na formalização de políticas internas de compliance digital, com a previsão de cláusulas contratuais específicas em parcerias comerciais, especialmente com anunciantes e influenciadores, disciplinando responsabilidades e procedimentos de remoção célere em caso de conteúdo ilícito. Essas políticas, além de proteger a própria plataforma, contribuem para irradiar padrões de conduta no ecossistema comunicacional em que ela se insere.

A dimensão da transparência, por sua vez, impõe a publicação periódica de relatórios que informem, de forma agregada, o número de notificações recebidas, as medidas adotadas e os prazos médios de resposta. Tal prática, alinhada a modelos regulatórios internacionais, reforça a accountability perante usuários, reguladores e o Poder Judiciário, além de fornecer insumos para a formulação de políticas públicas baseadas em dados empíricos.

Por fim, a adequação empresarial deve contemplar a formação contínua de equipes técnicas e jurídicas, bem como a manutenção de canais de diálogo com órgãos reguladores, entidades da sociedade civil e a comunidade acadêmica. A construção de boas práticas, nesse campo, não se limita ao cumprimento literal de determinações judiciais, mas envolve um compromisso proativo com a qualidade do espaço público digital, prevenindo litígios e fortalecendo a segurança jurídica na interação entre plataformas e usuários.

Assim, a decisão do STF, longe de representar apenas um ônus adicional, pode ser compreendida como oportunidade para que empresas do setor consolidem padrões de excelência em moderação e governança digital, compatíveis com a ordem constitucional e com as expectativas legítimas da sociedade democrática.

 

7 Considerações finais

A decisão do Supremo Tribunal Federal que declarou a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet representa marco relevante na evolução do tratamento jurídico da responsabilidade civil das plataformas digitais no Brasil. Ao flexibilizar a exigência de ordem judicial prévia em hipóteses específicas, o Tribunal deslocou o eixo interpretativo de um modelo puramente reativo para um sistema que combina, de forma equilibrada, mecanismos judiciais e extrajudiciais de tutela de direitos fundamentais.

Essa inflexão jurisprudencial atende a uma necessidade real imposta pela dinâmica do ambiente digital, no qual a rapidez da difusão de conteúdos e a facilidade de replicação ampliam exponencialmente o potencial de dano, tornando insuficiente, em certas situações, o aguardo pela manifestação jurisdicional definitiva. Ao mesmo tempo, ao estabelecer balizas para a notificação apta a ensejar a remoção e condicionar a responsabilização à demonstração de omissão culposa ou negligente, o STF procurou evitar que o novo regime se convertesse em instrumento de censura privada ou de supressão arbitrária de manifestações lícitas.

O desafio que se impõe, a partir de agora, é a harmonização legislativa e regulatória do entendimento firmado, de forma a conferir segurança jurídica e previsibilidade na sua aplicação. Isso envolve, de um lado, a adequação da redação legal e, de outro, a construção de parâmetros técnicos e procedimentais que orientem a atuação das plataformas, anunciantes, influenciadores e veículos de mídia. A efetividade do novo modelo dependerá, em grande medida, da capacidade desses agentes de internalizar protocolos claros de moderação, dotados de celeridade, proporcionalidade e transparência.

Nesse sentido, o precedente do STF projeta não apenas um novo patamar de proteção aos direitos fundamentais no espaço digital, mas também uma oportunidade para que o setor privado desenvolva boas práticas e mecanismos de governança que conciliem a liberdade de expressão com a dignidade da pessoa humana, a integridade e a segurança da informação. Cabe ao legislador, ao Poder Judiciário e à sociedade civil acompanhar a implementação dessa diretriz, ajustando-a sempre que necessário, para que se preserve o equilíbrio delicado entre pluralismo democrático e tutela efetiva contra abusos na comunicação mediada por tecnologia.

 

Referências

 

BRASIL. Constituição (1988). Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm. Acesso em: 12 ago. 2025.

 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 12 ago. 2025.

 

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 12 ago. 2025.

 

BRASIL. Supremo Tribunal Federal. Arguição de inconstitucionalidade no art. 19 do Marco Civil da Internet. Julgamento em 26 jun. 2025. Brasília, DF: STF, 2025.

 

CIVIL, Marco. Comentários à Lei nº 12.965/2014. In: DONEDA, Danilo; PEIXOTO, Alexandre (coords.). Direito digital brasileiro. São Paulo: Revista dos Tribunais, 2019.

 

COSTA, José Augusto Fontoura. Responsabilidade de intermediários na internet: regime jurídico e tendências internacionais. Revista de Direito Civil Contemporâneo, São Paulo, v. 18, p. 13-45, 2019.

 

FACHIN, Luiz Edson; SARLET, Ingo Wolfgang; MARINONI, Luiz Guilherme. Liberdade de expressão e direitos fundamentais. São Paulo: Revista dos Tribunais, 2017.

 

MENDES, Gilmar Ferreira; BRANCO, Paulo Gustavo Gonet. Curso de direito constitucional. 16. ed. São Paulo: Saraiva Educação, 2021.

 

SILVA, José Afonso da. Curso de direito constitucional positivo. 43. ed. São Paulo: Malheiros, 2020.

 

SUPERIOR TRIBUNAL DE JUSTIÇA (Brasil). Jurisprudência sobre o art. 19 do Marco Civil da Internet. Brasília, DF: STJ, 2024.

 

UNITED STATES. Digital Millennium Copyright Act (DMCA), 1998. Washington, DC: U.S. Congress. Disponível em: https://www.copyright.gov/legislation/dmca.pdf. Acesso em: 12 ago. 2025.

 

UNIÃO EUROPEIA. Digital Services Act (DSA), 2022. Bruxelas: Parlamento Europeu. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/digital-services-act. Acesso em: 12 ago. 2025.