Da Redação
Após a onda de denúncias sobre “adultização” infantil e a guinada do STF sobre a responsabilidade das plataformas, a Câmara acelerou a agenda para votar regras de verificação de idade, controle parental e retirada de conteúdo de exploração infantil. Entenda o que muda, os projetos em pauta e o que está em jogo.
A Câmara dos Deputados entrou nesta segunda-feira, 11 de agosto de 2025, em modo de urgência para regulamentar a proteção de crianças e adolescentes em ambientes digitais. O presidente da Casa, Hugo Motta, afirmou que pretende pautar ainda nesta semana propostas que restrinjam o alcance de perfis e conteúdos que promovem a “adultização” de menores e reforcem obrigações de cuidado das plataformas, deslocando um debate que há anos circula no Congresso para o centro da agenda legislativa. A sinalização foi explícita e pública e responde a pressão social recente, com destaque para um vídeo de grande repercussão que expôs práticas de exploração de crianças em redes sociais. A decisão política de pautar o tema cria uma janela rara para convergir propostas que estavam dispersas em diferentes comissões.
O eixo da pauta é um projeto já amadurecido no Senado e em tramitação na Comissão de Comunicação da Câmara: o PL 2628 de 2022, de autoria do senador Alessandro Vieira. O texto estabelece um marco específico de proteção de crianças e adolescentes em ambientes digitais, exigindo que produtos e serviços tenham mecanismos ativos para impedir uso por menores quando não forem adequados, impondo deveres de avaliação de risco, protocolos de moderação, transparência e canais de denúncia, além de prever verificação proporcional de idade em contextos sensíveis. O projeto recebeu requerimentos de urgência e pedidos de audiência na Câmara ao longo do primeiro semestre, mas estava parado até o novo impulso.
O gatilho político imediato para a virada foi o chamado “efeito Felca”, depois que um influenciador publicou um vídeo de cerca de cinquenta minutos com denúncias detalhadas sobre a exposição de crianças em conteúdos sexualizados. A repercussão mobilizou frentes parlamentares e levou veículos e observatórios a relacionar diretamente o caso com o destravamento do PL 2628. Em paralelo, começaram a tramitar ou ganhar prioridade outros projetos com foco em controle parental obrigatório, filtros de conteúdo e punições mais duras para plataformas que falhem em proteger menores. Esse contexto explica por que líderes passaram a falar em “votação nesta semana”, uma formulação que, no jargão do Congresso, costuma sinalizar esforço de acordo de liderança.
Além do PL 2628, a pauta inclui proposições complementares. Um projeto apresentado em fevereiro trata especificamente da verificação de idade para acesso de crianças e adolescentes a aplicações na internet e cria restrições ao uso de redes sociais por menores, acoplado a um texto mais antigo sobre o mesmo tema. Outra proposta, de março, obriga plataformas, aplicativos e serviços de streaming a oferecer mecanismos eficazes de controle parental. Também há um texto de junho voltado a diretrizes de proteção psicológica e emocional dos usuários e identificação de uso excessivo, e iniciativas recentes voltadas a reforçar investigação e repressão a abuso sexual infantil online. Esses projetos, embora distintos, convergem para um desenho regulatório que combina prevenção, arquitetura de segurança e responsabilização.
O pano de fundo jurídico mudou de forma decisiva em 26 de junho de 2025, quando o Supremo Tribunal Federal fixou novos parâmetros para a responsabilização civil das plataformas por conteúdos de terceiros e declarou, com efeitos vinculantes, a possibilidade de responsabilização sem ordem judicial prévia em hipóteses graves, incluindo pornografia infantil. A decisão estabeleceu deveres ativos de cuidado, autorregulação e transparência, além de exigir representação no Brasil, alterando o equilíbrio histórico do Marco Civil da Internet. Esse novo enquadramento pesa diretamente no desenho das leis em discussão, pois fortalece a tese de que, em matéria de proteção de crianças, o dever é preventivo e a omissão tem custo jurídico.
No campo das políticas públicas, o governo federal já vinha produzindo guias e diretrizes sobre uso de telas por crianças e adolescentes, apontando a necessidade de respostas regulatórias e educativas para mitigar impactos em saúde física e mental, especialmente depois da pandemia. No Senado também tramita um projeto de 2025 que altera o Estatuto da Criança e do Adolescente para reduzir riscos e a exposição excessiva a telas, estimulando atividades não digitais como parte de uma política de proteção integral. Essas iniciativas mostram que o tema não é episódico e que a Câmara, ao legislar sobre redes sociais, dialoga com um ecossistema mais amplo de prevenção e alfabetização midiática.
Casos judiciais recentes evidenciam a pressão do sistema de Justiça sobre a superexposição infantil. Em decisão inédita de julho, a Justiça do Acre reconheceu o excesso de exposição de uma criança nas redes, fenômeno conhecido como oversharing, e impôs limites aos próprios responsáveis. A jurisprudência de tribunais e o novo entendimento do Supremo alinham-se no sentido de que plataformas e responsáveis não podem se eximir de cautelas mínimas quando há risco concreto a direitos de crianças e adolescentes. Esse movimento institucional robustece a base para sanções administrativas e civis previstas em projetos que fixam multas expressivas em caso de falhas de proteção.
Do ponto de vista político, lideranças da base e da oposição vocalizam prioridades distintas, mas a janela de consenso é maior quando o foco é criança e adolescente. Parlamentares da área da educação e dos direitos humanos defendem votação prioritária, enquanto presidentes de Casas Legislativas estaduais e frentes temáticas nacionais ressaltam que regulamentar não é cercear expressão criativa de menores, e sim garantir segurança e conformidade com direitos fundamentais. A comunicação institucional da Câmara também reforçou que o tema é urgente. Essa construção política importa porque reduz o risco de que a agenda se dilua em disputas ideológicas típicas do debate sobre regulação de plataformas.
Na substância, três eixos tendem a orientar a negociação de texto: verificação proporcional de idade para contextos de alto risco, incluindo publicidade e recursos interativos que exponham crianças a contato com desconhecidos; mecanismos obrigatórios de controle parental, modo infantil e arquitetura de segurança por padrão; e deveres claros de moderação, transparência e resposta célere para remoção de conteúdos de abuso sexual e exploração econômica, com priorização técnica e prazos exequíveis. A literatura regulatória internacional aponta que esses eixos só funcionam quando acompanhados de avaliação de risco contínua, auditorias independentes e proibição de práticas como recomendação ativa de conteúdo inadequado a perfis infantis. A diferença agora é que há lastro jurídico do Supremo e pressão social orgânica para transformar esses princípios em lei.
Há, contudo, armadilhas a evitar. Verificação de idade precisa ser proporcional e baseada em múltiplos sinais, com privacidade por desenho e opções que não produzam exclusão digital de adolescentes. O controle parental não pode servir como solução única, sob pena de transferir integralmente para famílias um ônus que é também das empresas e do Estado. A responsabilização, por sua vez, deve equilibrar proteção efetiva e segurança jurídica, definindo claramente quando há culpa por falha de dever de cuidado e quais são os incentivos para prevenção. A experiência internacional sugere que multas percentuais do faturamento e a exigência de representantes com poderes no Brasil aumentam a capacidade de enforcement. No Brasil, a conjunção entre o novo parâmetro do Supremo e a pauta adensada na Câmara cria condições técnicas e políticas para um acordo robusto.
Se mantido o ritmo sinalizado pela presidência da Câmara, a votação do texto-base pode ocorrer com referência explícita ao PL 2628 como arcabouço e com a incorporação de dispositivos de projetos específicos sobre verificação de idade e controle parental, formando um regime integrado de proteção. O Senado, que já discutiu o tema na Comissão de Direito Digital e acompanha o avanço da matéria bicameral, deve ser chamado a validar eventuais alterações. A expectativa de curto prazo é que o Congresso responda ao clamor social com regras aplicáveis e auditáveis, enquanto a sociedade civil seguirá cobrando uma implementação que una educação midiática, desenho seguro de plataformas e responsabilização efetiva.