Roblox virou ambiente favorável para predadores de crianças
Ilustração

Uma nova ação judicial alega que a plataforma Roblox falhou em adotar medidas de segurança capazes de impedir que um adolescente de Oklahoma fosse explorado por um adulto após contato inicial dentro do ambiente do jogo. O caso surge em meio ao aumento de processos relacionados à proteção infantil envolvendo a empresa.

A mãe do adolescente ingressou com a ação no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, por meio do escritório Dolman Law Group. O jovem aparece identificado como “John Doe JH”, enquanto a Roblox é listada como ré. Segundo a denúncia, a plataforma teria se tornado um ambiente vulnerável à atuação de adultos mal-intencionados, oferecendo “acesso facilitado” a menores e falhando na triagem e monitoramento dos usuários.

O documento afirma que a suposta falta de proteção resultou em impacto psicológico severo para o adolescente. A queixa relata que a família acreditava que o aplicativo era seguro para crianças por ser divulgado e comercializado como tal, percepção reforçada pela comunicação institucional da Roblox. O processo sustenta que o adolescente era usuário frequente quando, em 2023, foi abordado por um adulto que se passou por alguém da mesma idade e utilizou estratégias de aproximação para estabelecer contato.

A ação pede indenização por danos emocionais, despesas médicas e outras consequências atribuídas ao episódio.

Em resposta, um porta-voz da Roblox afirmou ao The Christian Post que a empresa trata a proteção infantil como prioridade e não comenta casos em andamento. Segundo a empresa, somente em 2025 foram implementadas 145 novas iniciativas de segurança, incluindo ferramentas de denúncia, colaboração com autoridades e participação em projetos internacionais de combate à exploração infantil.

A plataforma anunciou recentemente que passará a exigir verificação de idade por reconhecimento facial ou confirmação documental antes de liberar interações entre usuários de faixas etárias próximas. A medida será adotada inicialmente em alguns mercados em dezembro e ampliada globalmente no início de janeiro. O representante ressaltou que a empresa opera com tecnologia de moderação contínua e limita recursos como compartilhamento de imagens e troca de informações pessoais.

Organizações de proteção infantil, porém, afirmam que os mecanismos da plataforma ainda são insuficientes. Tim Nester, vice-presidente de comunicações do Centro Nacional de Exploração Sexual, declarou que o histórico da plataforma motivou o processo atual e mais de 30 ações semelhantes. Para ele, ferramentas como bate-papo interno e acesso a conteúdos interativos permitiram brechas que favoreceram incidentes de exploração. Nester defendeu a aprovação da Kids Online Safety Act, em discussão no Congresso, para obrigar empresas de tecnologia a priorizarem segurança infantil no design de seus produtos.

Casos anteriores envolvendo a Roblox reforçaram o debate. Em 2023, a emissora WABC noticiou o desaparecimento de uma menina de 11 anos de Nova Jersey que havia conhecido um adulto pela plataforma, posteriormente localizada pelas autoridades em Delaware. Em outro episódio relatado pela NBC News no mesmo ano, um adolescente de 13 anos em Utah foi alvo de um predador que utilizava aplicativos de jogos para contatar menores, sendo resgatado após intervenção policial.

Gospel Prime

Deixe comentário