Roblox e a Proteção de Dados Infantis: Brasil Adota Lógica Regulatória Internacional

PUBLICIDADE

A recente restrição de funcionalidades do Roblox voltadas a crianças no Brasil não deve ser vista apenas como uma ação moral ou pedagógica. Trata-se, fundamentalmente, de um movimento regulatório que se alinha a uma tendência global de proteção de dados pessoais de menores, consolidada nos Estados Unidos há mais de duas décadas. O que o Brasil inicia, de forma ainda fragmentada, é a aplicação prática de uma lógica similar à da Children’s Online Privacy Protection Act (COPPA) e suas regras complementares, com foco na concepção do serviço, idade do usuário e capacidade de controle demonstrável.

Nos Estados Unidos, a proteção de crianças no ambiente digital nunca foi tratada de forma genérica. A COPPA estabeleceu um modelo objetivo: aplica-se a serviços direcionados a menores de 13 anos e também a serviços de público geral quando o operador tem conhecimento de que está coletando informações pessoais de uma criança. O cerne da questão não é qualquer dado, mas a interação entre a idade do usuário, as características do serviço e o tratamento de informações pessoais.

Quando esses elementos estão presentes, a regra é clara: antes de coletar, usar ou divulgar dados pessoais de crianças, o operador deve notificar adequadamente e obter o consentimento parental verificável. Este consentimento deve ser obtido por um método “razoavelmente desenhado” para garantir que quem consente é o responsável legal. A exigência vai além da simples informação, demandando demonstração de governança e lastro probatório.

Esse ponto é crucial para entender o caso do Roblox. Plataformas com alto grau de interação social, como jogos com chat, não apenas coletam dados pessoais, mas incentivam a produção constante de informação pela própria criança. A COPPA considera esse desenho como parte do risco regulatório, especialmente quando o serviço permite que a criança torne informações pessoais publicamente disponíveis. Nesses casos, o operador precisa adotar medidas eficazes para remover conteúdo identificável antes da publicação. Em outras palavras, quanto mais aberto e social o ambiente, maior o ônus do operador em demonstrar controle efetivo sobre quem participa, como os dados circulam e quem pode acessá-los.

A Lei Geral de Proteção de Dados (LGPD) brasileira, embora com terminologia distinta, converge nessa lógica. A LGPD não enquadra automaticamente dados de crianças como “sensíveis”, mas estabelece um regime jurídico próprio, focado no melhor interesse da criança e com disciplina específica. O artigo 14 da LGPD exige consentimento específico e em destaque por pelo menos um dos pais ou responsável legal, com exceções restritas para contato com os pais ou proteção da criança.

A equivalência entre COPPA e LGPD não reside em uma cópia literal, mas na lógica de accountability aplicada ao desenho do serviço. Se a arquitetura da plataforma amplia o risco, multiplica a exposição e fragiliza a obtenção de consentimento válido, o controlador enfrenta dificuldades jurídicas. A Autoridade Nacional de Proteção de Dados (ANPD) tem enfatizado o “melhor interesse” como eixo interpretativo, reconhecendo que hipóteses legais podem ser debatidas sob escrutínio reforçado quando envolvem crianças.

Muitas plataformas globais encontram dificuldade justamente nesse ponto. Em ambientes desenhados para escala, comprovar e documentar um consentimento parental robusto é um desafio operacional. A experiência da COPPA demonstra que, quando esse controle não é viável, a consequência frequente é a limitação de funcionalidades, não por censura, mas por gestão de risco jurídico e reputacional.

O Brasil se aproxima dessa realidade. A discussão em torno de um “ECA Digital” busca preencher lacunas na tutela online, mas a LGPD já oferece fundamentos para intervenções baseadas no desenho do serviço, especialmente quando funcionalidades como o chat do Roblox ampliam o volume e a sensibilidade do tratamento de dados, dificultando a sustentação de um consentimento válido. O chat infantil, nesse contexto, transforma a criança em fonte contínua de dados, muitas vezes sem que ela perceba.

A visibilidade pública do tema, impulsionada por influenciadores, acelera um processo em curso. A pressão social, embora não crie a base jurídica, expõe o risco reputacional e reduz a tolerância regulatória. Diante disso, a restrição de funcionalidades se torna menos uma escolha política e mais uma resposta técnica a um problema de conformidade: quando a arquitetura da plataforma não permite controle demonstrável, a redução do risco se impõe.

O que se observa, portanto, é uma convergência gradual com um modelo regulatório internacional. A COPPA ensinou que serviços para crianças precisam ser redesenhados sem consentimento parental verificável e governança real. A LGPD, com sua própria linguagem, pressiona as plataformas na mesma direção: melhor interesse, consentimento qualificado e dever reforçado de demonstrabilidade.

O caso Roblox evidencia que o debate central não é a presença de crianças em plataformas digitais, mas a capacidade dessas plataformas de sustentar juridicamente seu desenho. Em um cenário de convergência regulatória global, a mensagem é clara: quem cria ambientes digitais para crianças deve assumir os riscos técnicos e jurídicos desse desenho. Quando isso não ocorre, a limitação funcional deixa de ser exceção e passa a ser regra.

Mais recentes

PUBLICIDADE

Rolar para cima