ECA Digital entra em vigor; plataformas ampliam verificação de idade

Imagem/divulgação: Tele.síntese

Big techs detalham adaptações em suas plataformas para reforçar proteção de crianças e adolescentes no Brasil

O Estatuto Digital da Criança e do Adolescente (ECA Digital) entra em vigor hoje, 17, e levou plataformas digitais e empresas de games a se ajustarem, destacando medidas de verificação de idade, controle parental e moderação de conteúdo no Brasil. A nova legislação alcança produtos e serviços online oferecidos no país, independentemente do local de sede da empresa responsável. Entre as exigências estão medidas de proteção por padrão, maior transparência no tratamento de riscos e oferta de instrumentos de controle para pais e responsáveis legais.

No plano regulatório, a Agência Nacional de Proteção de Dados (ANPD) já abriu ação de monitoramento para mapear as medidas adotadas por 37 empresas que ofertam produtos ou serviços de tecnologia da informação direcionados a crianças e adolescentes no Brasil, ou de acesso provável por esse público.

Meta, Google, TikTok, X e Riot Games informaram que vêm ajustando produtos, políticas de segurança e ferramentas de controle para atender às novas obrigações previstas para serviços digitais acessíveis a crianças e adolescentes.

Meta detalha restrições para adolescentes no Instagram
A Meta informa que disponibiliza no Brasil, desde fevereiro de 2025, as chamadas Contas de Adolescente no Instagram, voltadas a usuários de 13 a 17 anos. Segundo a empresa, essas contas são ativadas automaticamente e incluem proteções configuradas por padrão para limitar o conteúdo visualizado e as interações com outros usuários.

Entre as medidas listadas estão contas privadas por padrão, restrições mais rigorosas para mensagens e limites para menções ou marcações feitas por outros perfis. A empresa também afirma aplicar a configuração mais restritiva de controle de conteúdo sensível em áreas como Explorar e Reels, além de manter recursos para filtragem de termos ofensivos em comentários e mensagens.

A Meta também envia notificações para pausas após 60 minutos de uso diário e ativa automaticamente um modo de descanso entre 22h e 7h, com silêncio de notificações e respostas automáticas em mensagens diretas. Para adolescentes menores de 16 anos, alterações para configurações menos restritivas exigem autorização dos responsáveis.

Além disso, outras ferramentas de supervisão parental permitem aos pais acompanhar informações sobre as contas com as quais os adolescentes interagiram nos últimos sete dias, sem acesso ao conteúdo das conversas, além de definir limites diários de uso e bloquear o acesso em horários específicos.

Google e TikTok destacam controles familiares e moderação
No caso do Google, a empresa apresenta o Family Link como ferramenta de controle familiar para serviços como Chrome, Play, YouTube e Pesquisa. Na página oficial, o Google também informa que o recurso permite bloquear sites inadequados, exigir aprovação para instalar novos aplicativos, gerenciar permissões e definir limites de uso de apps. A empresa também usa tecnologias de IA para identificar e remover conteúdos relacionados à exploração infantil e outros materiais ilegais.

O TikTok, por sua vez, afirma ampliar funcionalidades de proteção voltadas a adolescentes, com o Family Pairing. Entre as medidas estão a possibilidade de pais bloquearem o acesso do adolescente em horários definidos, visualizarem contas seguidas, seguidores e perfis bloqueados e ajustarem limites diários de uso. A empresa afirma ainda que usuários menores de 18 anos têm limite diário de 60 minutos por padrão. A plataforma também utiliza sistemas de moderação baseados em IA e revisão humana para detectar conteúdos potencialmente prejudiciais ou inadequados para menores.

X mantém política específica para segurança infantil
No X, a política oficial de segurança infantil é de tolerância zero para materiais que apresentem ou promovam exploração sexual de menores. A empresa informa que contas envolvidas nesse tipo de violação são suspensas de forma permanente e reportadas ao National Center for Missing & Exploited Children (NCMEC), além de prever remoção de conteúdo e restrição de alcance em outras hipóteses.

Riot adota verificação de idade e restringe acesso de menores ao catálogo
A Riot Games detalhou medidas específicas para o mercado brasileiro. A implementação obrigatória da verificação de idade começou ontem, dia 16, para jogadores com 18 anos ou mais, com validação por CPF, cartão de pagamento, documento de identidade ou estimativa etária facial.

Para menores de 18 anos, a empresa informa que, a partir de 18 de março, os jogos League of Legends, Teamfight Tactics, League of Legends: Wild Rift, 2XKO e Legends of Runeterra terão classificação temporariamente elevada para 18 anos, o que bloqueará o acesso desse público aos jogos. A Riot afirma que pretende reavaliar essas classificações e trabalhar para o retorno às classificações originais até o início de 2027.

No caso de VALORANT, a companhia informa que jogadores entre 12 e 17 anos poderão continuar com acesso desde que pai, mãe ou responsável legal conceda autorização por meio do portal de controle parental. A Riot também afirma que contas bloqueadas ficarão pausadas, com preservação de progresso, itens e demais dados.

Com a entrada em vigor da lei, a expectativa é que plataformas continuem ajustando políticas de segurança, design de produtos e mecanismos de controle parental, enquanto o governo avança na regulamentação complementar e na fiscalização das novas obrigações impostas ao setor digital.

*Fonte: Tele.síntese

Deixe uma resposta