Artigo – ECA Digital: governança, design e responsabilidade no setor de games

Imagem/divulgação: Tele.síntese

Mudanças vão muito além do conteúdo que circula nas plataformas e criam um “compliance de design” para empresas adequarem suas estruturas e como vão operar, avaliam advogadas

O Estatuto Digital da Criança e do Adolescente (ECA Digital) introduz um novo conjunto de obrigações para plataformas digitais, jogos eletrônicos e serviços online que disponibilizam ambientes interativos acessíveis a menores.

A nova legislação altera práticas relacionadas a monetização, publicidade, verificação de idade e moderação de conteúdo em ambientes digitais. Embora o debate público tenha se concentrado principalmente na proibição de loot boxes, o alcance da norma é mais amplo e tende a impactar diferentes atores da cadeia do mercado de games.

O estatuto se aplica a serviços digitais que possibilitam interação entre usuários incluindo jogos online, plataformas de distribuição e ambientes virtuais nos quais menores possam participar.

A fiscalização do cumprimento do ECA Digital pode envolver diferentes autoridades públicas, como a Agência Nacional de Proteção de Dados (ANPD), especialmente quando as obrigações legais se relacionarem ao tratamento de dados pessoais de crianças e adolescentes.

As sanções aplicáveis podem incluir advertências, multas e outras medidas administrativas previstas no próprio ECA Digital, sem prejuízo da eventual aplicação das penalidades previstas na Lei Geral de Proteção de Dados Pessoais (LGPD), quando caracterizadas infrações autônomas relacionadas ao tratamento de dados pessoais, observados o devido processo legal e os limites à dupla punição pelo mesmo fato.

Proibição de loot boxes
Entre os pontos de maior repercussão na indústria está a proibição de loot boxes em jogos direcionados a crianças e adolescentes ou com acesso provável por esse público.

Loot boxes são sistemas de recompensa aleatória em que os usuários recebem itens digitais de valor variável, mediante pagamento. Essas mecânicas se tornaram um elemento recorrente em modelos de monetização de jogos, sobretudo em títulos gratuitos.

Com a nova lei, desenvolvedores e publishers poderão precisar revisar mecanismos de progressão e monetização, especialmente em jogos que tenham presença relevante de usuários menores de idade.

Dependendo da interpretação da norma, empresas poderão optar por retirar essas funcionalidades em versões distribuídas no Brasil ou restringi-las a públicos adultos.

O texto legal, contudo, não detalha critérios técnicos para definir quando um jogo possui “acesso provável” por menores, o que pode gerar discussões interpretativas na aplicação da regra.

Verificação de idade mais rigorosa
Outro ponto central da nova legislação é a exigência de mecanismos mais robustos para verificação de idade.

O ECA Digital estabelece que plataformas não poderão se basear somente na autodeclaração do usuário para identificar sua idade. Isso significa que serviços digitais precisarão adotar métodos adicionais de verificação.

A lei não define quais tecnologias devem ser utilizadas, mas a exigência pode levar à adoção de diferentes soluções tecnológicas, como validação documental, sistemas de contas familiares ou tecnologias de estimativa etária.

A ausência de parâmetros técnicos específicos abre espaço para diferentes abordagens de implementação pelas empresas.

Contas vinculadas a responsáveis
O estatuto também estabelece regras específicas para contas de usuários menores de 16 anos.

Nesses casos, as contas deverão estar obrigatoriamente vinculadas a um responsável legal. As plataformas devem oferecer ferramentas que permitam ao responsável acompanhar a atividade do adolescente dentro do serviço.

Entre as funcionalidades esperadas estão mecanismos de supervisão de interações, controle de compras dentro do jogo e acesso a informações sobre o uso da plataforma.

Essas exigências podem demandar ajustes nos sistemas de gerenciamento de contas e em funcionalidades de controle parental.

Restrições à publicidade
O ECA Digital também estabelece restrições relevantes à publicidade em ambientes digitais acessíveis a menores.

Anúncios direcionados a crianças e adolescentes passam a ser proibidos nas plataformas. A medida pode impactar modelos de monetização baseados em publicidade segmentada, especialmente em jogos gratuitos que utilizam anúncios como fonte relevante de receita.

Além disso, a norma reforça a necessidade de evitar práticas comerciais consideradas abusivas ou que possam explorar a vulnerabilidade de menores.

Moderação de conteúdo e interações
A nova legislação também traz obrigações relacionadas à moderação de conteúdo e à governança de interações online.

As plataformas devem adotar mecanismos eficazes para identificar, reportar e remover conteúdos nocivos, incluindo conteúdos relacionados à exploração e ao abuso sexual, bem como implementar medidas razoáveis desde a fase de concepção e ao longo de toda a operação de suas aplicações, com o objetivo de prevenir e mitigar riscos de acesso a conteúdos nocivos, como exploração e abuso sexual.

A lei prevê ainda requisitos mais rígidos para moderação de chats e outras formas de interação entre usuários dentro de jogos online.

Além disso, os serviços deverão disponibilizar canais para recebimento de denúncias e reclamações relacionadas a comportamentos inadequados ou violações das regras da plataforma.

Essas obrigações reforçam a importância de estruturas de trust and safety e de ferramentas de moderação automatizada ou híbrida.

Impactos operacionais para o setor
De modo geral, o novo estatuto impõe a necessidade de revisões em múltiplas camadas da operação de plataformas e serviços de games. Para as empresas, contudo, seus efeitos tendem a ser ainda mais profundos e estruturais, uma vez que a legislação também estabelece obrigações diretamente relacionadas ao design e à arquitetura das plataformas digitais.

A nova lei passa a exigir, por exemplo, a adoção de configurações padrão protetivas para menores, a implementação de mecanismos confiáveis de verificação etária e a imposição de restrições a práticas de design que estimulem consumo ou engajamento excessivo por crianças e adolescentes. Na prática, isso desloca parte relevante da responsabilidade das empresas para uma etapa anterior da cadeia de valor: o desenvolvimento do produto.

Plataformas, aplicativos e serviços digitais suscetíveis de acesso por menores deverão, portanto, incorporar avaliações de risco e medidas de proteção desde a fase de concepção das soluções, e não apenas como ajustes posteriores ou medidas corretivas.

Esse cenário inaugura um novo paradigma de conformidade no ambiente digital, que pode ser descrito como um verdadeiro “compliance de design”.

Na prática, isso significa que áreas como produto, engenharia e experiência do usuário passam a desempenhar um papel central na observância das exigências legais, tornando esse alinhamento um investimento estratégico e indispensável para as empresas.

Nesse sentido, o ECA Digital sinaliza uma mudança relevante não apenas em relação ao conteúdo que circula nas plataformas, mas sobretudo quanto à forma como essas plataformas são concebidas, estruturadas e operadas.

* Tatiana Campello e Cecília Cunha são, respectivamente, sócia e advogada da área de Dados, Privacidade e Cibersegurança; Maria Helena Bragaglia é sócia das áreas de Resolução de Conflitos e de Consumo e Varejo do Demarest Advogados.

*Fonte: Tele.síntese

Deixe uma resposta