UOL - O melhor conteúdo
Lupa
Marco Civil e idade mínima no Instagram; entenda as novas decisões
13.06.2025 - 13h34
Rio de Janeiro - RJ
Duas decisões tomadas em Brasília nesta semana reacenderam o debate sobre a regulação das redes sociais no Brasil – e movimentaram as plataformas digitais. De um lado, o Ministério da Justiça e Segurança Pública (MJSP) decidiu elevar para 16 anos a classificação indicativa do Instagram, alegando que a rede exibe conteúdos inadequados para adolescentes, como mutilações, sexo explícito e consumo de drogas. A decisão se deu por meio da Coordenação de Política de Classificação Indicativa – que é parte do ministério – e foi publicada no Diário Oficial da União (DOU) no dia 11 e se baseia nos Guias Práticos da Classificação Indicativa (Classind), um conjunto de documentos que estabelecem sugestões de faixa etárias para conteúdos audiovisuais, artes e propagandas.
De outro, o Supremo Tribunal Federal (STF) retomou o julgamento do Marco Civil da Internet que pode mudar a forma como as plataformas digitais – big techs – respondem por publicações de seus usuários, discutindo a responsabilização por discursos de ódio, desinformação e conteúdos nocivos. Até o momento, são seis votos favoráveis para a responsabilização e um contrário.
As duas frentes, que envolvem diretamente os direitos dos usuários, empresas e o dever do Estado na proteção de crianças e adolescentes, levantam uma série de dúvidas: o que, afinal, muda a partir de agora? A Lupa reuniu os principais pontos e responde neste explicador. 

Menores de 16 anos não podem mais acessar o Instagram?

Menores de 16 anos ainda podem utilizar o Instagram. A decisão publicada pelo Ministério da Justiça não impede o uso da plataforma por adolescentes abaixo dessa faixa etária, mas alerta que o ambiente é inadequado e desaconselha o uso. A decisão foi tomada após um monitoramento de rotina, em que MJSP concluiu que os conteúdos exibidos na plataforma não são adequados para menores de 16, considerando o Classind. 
“A mudança é resultado de um procedimento de revisão dos conteúdos da rede. A nova classificação reforça a necessidade de atenção dos responsáveis e usuários para o consumo consciente da rede social. Portanto, não é restritivo, nem se caracteriza como censura”, informou o ministério em comunicado divulgado no dia 11.
Em nota encaminhada à Lupa, o ministério disse que a decisão não obriga a Meta a criar regras específicas para contemplar o posicionamento do governo. “O MJSP não promove qualquer restrição à manifestação do pensamento, à criação, à expressão ou à informação. Ao contrário, a classificação indicativa apenas informa à sociedade (em especial aos pais e responsáveis) as faixas etárias a que os conteúdos são recomendados ou não. Cabe aos destinatários da norma decidirem sobre como agir com relação às crianças e adolescentes sob sua responsabilidade”, declarou a pasta.
Entretanto, a decisão, não significa que a Meta – empresa que administra o Instagram – irá mudar as políticas da plataforma. Atualmente, o Instagram permite apenas que pessoas com mais de 13 anos criem contas
Também em nota enviada à Lupa, a Meta afirmou que trabalha em ferramentas e recursos para proteger adolescentes e que, por meio de algoritmos, evita a exibição de conteúdos sensíveis a esse público. “No ano passado, lançamos a Conta de Adolescente com recursos integrados para garantir que os jovens tenham experiências seguras na nossa plataforma. A metodologia do Classind não leva em consideração nenhuma medida de proteção que as plataformas oferecem”, disse a empresa. 

As plataformas já podem ser responsabilizadas pelos conteúdos publicados pelos usuários?

A discussão sobre a responsabilização das plataformas por conteúdos ofensivos publicados por usuários segue em curso no Supremo Tribunal Federal. Até o momento, o placar está em 6 votos a 1 pela responsabilização civil das redes sociais por publicações ilícitas. O julgamento foi retomado nesta quarta-feira, 12 de junho.
No centro do debate está a constitucionalidade do artigo 19 do Marco Civil da Internet. A norma criada em 2014 estabelece que plataformas só podem ser responsabilizadas caso descumpram ordens judiciais de remoções de conteúdo. Com essa exigência, as big techs continuam a lucrar com conteúdos potencialmente danosos até que o Judiciário determine sua exclusão. 
Para o professor Marcelo Träser, pesquisador de jornalismo digital e cultura cibernética da Universidade Federal do Rio Grande do Sul, ainda não há clareza sobre as exigências que o STF pode estabelecer para configurar a responsabilização civil das plataformas. Segundo ele, mesmo com a maioria formada, o debate está longe de ser encerrado.
 “Não acredito que estejamos diante do encerramento da discussão sobre a responsabilização das redes sociais. A meu ver, ainda não é possível saber como se dará essa regulação, nem quais serão seus contornos normativos. Diversos formatos de responsabilização ainda podem surgir da discussão entre os ministros”, diz o especialista sobre a incerteza sobre o modelo da regulação. 
Segundo Träser, é provável, ainda, que após alguma conclusão dada pelo Supremo, o Congresso Nacional retome o debate e proponha um novo projeto de lei para a regulação. “É possível, inclusive, que esse eventual projeto busque atender, ao menos parcialmente, aos interesses das grandes plataformas digitais. Mas, vale lembrar que, durante o julgamento, diversos ministros expressaram desconforto com a atuação das big techs no Congresso, denunciando estratégias de lobby que teriam contribuído para o bloqueio das discussões sobre regulação”, destaca.
A complexidade do tema também passa pela necessidade de equilibrar a responsabilização das plataformas com a garantia da liberdade de expressão. Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade da Virgínia e professora da FGV Direito Rio, destaca que o debate no Supremo não é homogêneo. 
“Cada voto é um voto. Fux e Toffoli entendem a necessidade de um regime de responsabilidade objetiva em que a mera existência de conteúdo problemático pode desencadear a responsabilidade das plataformas –o que é super preocupante de um ponto de vista técnico já que é impossível que a moderação de conteúdo opere para banir todo e qualquer conteúdo o tempo todo”, pondera. 
Träser acredita que, se implementada, a regulação será feita pelas plataformas. No entanto, ressalta que ainda há um longo caminho para definir critérios, regras e ações – e que fatores geopolíticos podem interferir no processo. “Há indícios de que certas plataformas estejam, de algum modo, articuladas com interesses do governo dos Estados Unidos, inclusive no sentido de promover retaliações a autoridades brasileiras, como nas ameaças de sanções direcionadas ao ministro Alexandre de Moraes”, observa. 
O professor complementa afirmando que o ideal é o assunto ser analisado à luz de dinâmicas geopolíticas mais amplas. “As big techs não apenas atuam como atores econômicos globais, mas também exercem influência política transnacional, com implicações diretas para a soberania e a institucionalidade de países como o Brasil”. 
Um episódio recente reflete essa tensão: no início deste ano, O CEO da Meta, Mark Zuckerberg, anunciou o fim do programa de verificação de fatos na Meta – mecanismo que alertava sobre a veracidade de publicações e direcionava para conteúdos jornalísticos que desmente o post. Na ocasião, Zuckerberg afirmou que trabalharia com o presidente dos Estados Unidos, Donald Trump, para pressionar governos que, segundo ele, querem censurar empresas americanas. Ele também criticou as políticas europeias que regulam as redes sociais. Desde 2022, a União Europeia instituiu a Lei dos Serviços Digitais (DSA) e da Lei dos Mercados Digitais (DMA) que visam tornar a esfera digital segura e transparente. No Reino Unido foi criado o “Online Safety Act”, um conjunto de leis para proteger o ambiente online para crianças e adolescentes. Nos EUA, o Take it Down Act, que criminaliza deepfakes com teor sexual. No entanto, a especialista conta que o processo de efetivação desses termos contou com críticas dos conservadores. 
Apesar dos avanços internacionais, Yasmin Curzi lembra que o conservadorismo moral influencia o debate de diversos países e pode ameaçar garantias como a criptografia e a privacidade das comunicações. “Disfarçada de excesso de zelo, a vigilância embutida em alguns projetos de lei é perigosa para todo mundo”, alerta. Ela também destaca que o Brasil não está atrasado na discussão. “Tentamos aprovar regulações no Congresso sobre o tema, mas devido ao forte lobby das plataformas e aliança com a maioria de direita no Congresso, o PL 2630/2020 foi travado”, pontua a especialista sobre o projeto de lei que criava uma série de novas obrigações para as plataformas digitais, mas foi arquivado em 2024.
Clique aqui para ver como a Lupa faz suas checagens e acessar a política de transparência
A Lupa faz parte do
The trust project
International Fact-Checking Network
A Agência Lupa é membro verificado da International Fact-checking Network (IFCN). Cumpre os cinco princípios éticos estabelecidos pela rede de checadores e passa por auditorias independentes todos os anos.
A Lupa está infringindo esse código? FALE COM A IFCN
Tipo de Conteúdo: Explicador
Conteúdo que explica assuntos que são alvo de ondas desinformativas nas redes sociais.
Copyright Lupa. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização.

Leia também


03.07.2025 - 14h55
Economia
IOF: entenda o imposto e a crise entre governo e Congresso

Desde que o governo federal anunciou o aumento da alíquota do IOF (Imposto sobre Operações Financeiras), em 11 de junho, uma crise se instaurou entre os poderes Executivo e Legislativo. O tributo também tem sido amplamente debatido nas redes sociais, tendo alcançado mais de 500 grupos públicos de WhatsApp e Telegram. A Lupa explica o que é IOF.

João Pedro Capobianco
13.06.2025 - 13h34
Redes sociais
Marco Civil e idade mínima no Instagram; entenda as novas decisões

Nesta semana, decisões do Executivo e do Judiciário reacenderam o debate sobre regulação das redes sociais. O MJSP alterou a classificação indicativa do Instagram, desaconselhando o uso para menores de 16 anos; no STF, avançou o julgamento sobre a responsabilização das plataformas. A Lupa entrevistou especialistas que discorreram sobre o tema. 


Evelyn Fagundes
22.04.2025 - 16h52
Religião
Entenda como será o conclave que vai eleger o próximo papa

O Papa Francisco morreu nesta segunda-feira (21), aos 88 anos. Primeiro Pontífice latino-americano, seu mandato foi marcado por reformas e pelo combate à pedofilia. Contudo, sua morte provoca diversas dúvidas sobre a escolha de seu sucessor. Confira neste explicador como é realizado o conclave que irá eleger o novo chefe da Igreja Católica.

Maiquel Rosauro
06.04.2025 - 08h00
Manifestações
Estimativas de público em manifestações viram disputa política; entenda como são feitas e por que há divergências

O ex-presidente Jair Bolsonaro convocou, para este domingo (6) uma nova manifestação, pró-anistia aos envolvidos nos atos antidemocráticos de 8 de janeiro de 2023. Em março, duas manifestações - uma contra e uma a favor da anistia – geraram dúvidas sobre o público presente em cada ato. A Lupa explica como as grandes aglomerações são calculadas.

João Pedro Capobianco
24.03.2025 - 18h08
STF
Bolsonaro: o que será julgado pelo STF nesta semana?

A partir desta terça-feira (25), o Supremo Tribunal Federal (STF) vai analisar se acata ou não a denúncia da Procuradoria Geral da República (PGR) sobre a trama golpista que culminou nos atos antidemocráticos de 8 de janeiro de 2023. Nas redes, publicações disseminam informações imprecisas sobre o julgamento. A Lupa explica o que está em jogo.

João Pedro Capobianco
Women Owned
Assine nossa newsletter
sobre desinformação
Acompanhe nossas redes
Lupa © 2025 Todos os direitos reservados
Feito por
Dex01
Meza Digital