Um novo tremor no mundo dos games: a Procuradora-Geral da Luisiana, Liz Murrill, entrou com uma ação contra a Roblox Corporation, acusando a plataforma de não proteger adequadamente os menores contra predadores sexuais. Estamos diante de um ponto de inflexão para o maior ecossistema UGC do planeta ou de mais um capítulo na complexa batalha pela segurança infantil online? Vamos destrinchar o caso, os dados-chave e o que isso significa para famílias e criadores.
O que a ação alega e por que coloca a Roblox na mira
Segundo a ação judicial apresentada por Murrill, a Roblox teria permitido, conscientemente e durante anos, um ambiente onde predadores sexuais prosperam, o que teria contribuído para a vitimização de menores nos Estados Unidos e, em particular, na Luisiana. A denúncia sustenta que a empresa não teria implementado medidas de segurança efetivas nem avisado de forma suficiente pais e crianças sobre riscos previsíveis dentro de seu serviço. Você pode ler o anúncio público da Procuradora-Geral neste fio no X: comunicado de Liz Murrill.
O texto legal não fica por menos: fala em «negligência voluntária» e «práticas enganosas» que teriam permitido um ambiente propício ao abuso. Ao fundo, pulsa um debate conhecido em qualquer plataforma social ou de jogo com conteúdo gerado por usuários (UGC): como equilibrar liberdade criativa, comunicação social e uma segurança infantil que, por definição, exige controles rigorosos e respostas rápidas? De facto, este ponto é especialmente delicado na Roblox, onde o público principal é menor de idade e as interações são massivas e em tempo real.
A Roblox, por sua vez, tem introduzido alterações. Após o veto na Turquia, anunciou novos ajustes de segurança: menores de 13 anos precisam de permissão dos pais para determinadas funções de chat, e menores de 9 necessitam de consentimento paterno para aceder a experiências com etiqueta de maturidade «Moderado». No entanto, o Ministério Público da Luisiana considera que estas medidas não atingem o nível necessário, e por isso decidiu levar o caso aos tribunais.
Um gigante UGC sob pressão global: números, vetos e decisões polémicas
Para dimensionar a questão, convém olhar para os números: em fevereiro de 2025, a Roblox registou, segundo relatórios, 85,3 milhões de utilizadores ativos diários, e a própria empresa afirma que metade das crianças norte-americanas menores de 16 anos joga pelo menos uma vez por mês. São magnitudes de órbita baixa, do tipo «escala Reddit ou YouTube», onde a moderação algorítmica e humana se torna um desafio técnico e operacional constante.
Além disso, a plataforma já foi proibida em vários países, entre eles China, Jordânia, Coreia do Norte, Omã, Qatar e Turquia, com o foco posto nos riscos de exploração infantil. Este contexto internacional reforça a pressão sobre a Roblox para demonstrar que suas políticas e ferramentas de proteção funcionam de forma consistente, sem atritos e adaptadas à idade.
Em meio a este clima, a empresa tomou uma decisão que gerou controvérsia: eliminar certos «vigilantes» da comunidade que atuavam como uma espécie de polícia informal do ambiente. Segundo explicou a equipa de desenvolvimento, a sua atividade estava a criar um ambiente inseguro para os utilizadores. A jogada, embora pretenda reduzir condutas problemáticas, abre outra questão: como manter à distância quem procura o mal sem desencorajar a comunidade que tenta proteger o espaço? Aqui, o equilíbrio lembra conceitos de cibersegurança moderna como o «princípio do menor privilégio», onde qualquer excesso — ainda que bem-intencionado — pode virar-se contra o sistema.
O que pais e criadores devem saber agora: chaves práticas
Se convive com a Roblox em casa ou desenvolve experiências dentro da plataforma, a pergunta é óbvia: o que faço hoje? Primeiro, entender o quadro atual. Existem medidas ativas orientadas aos menores — como permissões parentais para certos chats e o acesso com consentimento a conteúdos «Moderados» para os mais pequenos —, mas a ação da Luisiana evidencia que, para alguns reguladores, ainda não é suficiente.
O passo um é informar-se com critério e a partir de fontes fiáveis. Na ActualApp analisámos em detalhe a pergunta do milhão no nosso artigo ¿Es Roblox seguro para niños pequeños?, onde repasamos as chaves para compreender o ecossistema, o que implicam as etiquetas de maturidade e por que a supervisão adulta não é um acessório, mas um pilar. Em segundo lugar, vale a pena rever regularmente como o menor usa a plataforma: com quem interage, que experiências visita e que funções sociais emprega. Ainda que pareça básico, a conversa aberta e periódica continua a ser um dos «firewalls» mais eficazes no mundo real.
Do lado dos criadores, a mensagem é clara: respeitar as directrizes de conteúdo não é apenas uma obrigação contratual, também é uma questão de sustentabilidade. Em ambientes UGC, uma dinâmica social negativa pode derrubar a confiança de utilizadores e reguladores num piscar de olhos. E, em termos técnicos, qualquer atrito que reduza o risco — desde desenhar experiências que minimizem interações sensíveis até conceber fluxos seguros por defeito — ajuda a fortalecer o tecido comunitário. Como em qualquer stack moderno, a segurança não é uma camada adicionada no final; é uma propriedade do design.
Em definitiva, o caso da Luisiana contra a Roblox não se decide apenas nos tribunais: disputa-se também na opinião pública e na evolução das práticas da plataforma. Com milhões de menores dentro, cada ajuste importa. Seguiremos de perto o processo e as suas consequências para um dos ecossistemas de jogo e criação mais influentes do planeta.
.