Plataforma eliminará mensagens fora dos jogos e introduzirá ferramentas de controle parental, além de restringir mensagens para usuários menores com configuração integrada, e limitar conteúdo gerado e mensagens de transmissão.
Com o objetivo de garantir uma experiência segura para os seus usuários, o Roblox lançou atualmente novas ferramentas de segurança para proteger as crianças menores de 13 anos da plataforma. Uma dessas ferramentas é a limitação das interações fora dos jogos, impedindo que os usuários tenham acesso a mensagens de terceiros em outros ambientes da plataforma.
As medidas de segurança do Roblox foram implementadas em resposta às crescentes preocupações de segurança e proteção de dados dos usuários mais jovens. Além disso, para garantir ainda mais a proteção dos usuários, é essencial que os pais estejam cientes dos recursos de segurança disponíveis. Com o objetivo de garantir a segurança dos usuários, o Roblox iniciou uma campanha para informar os pais sobre as novas medidas de segurança implementadas, como proteção dos dados e o encerramento das mensagens de terceiros. A plataforma está continuamente atualizando suas medidas de segurança para garantir um ambiente seguro para todos os usuários, especialmente aqueles mais vulneráveis, como as crianças menores de 13 anos.
Segurança: Metas mais ambiciosas para proteção de dados
A empresa Roblox busca reforçar a segurança e a proteção de dados, especialmente para usuários mais jovens. Embora os menores ainda possam enviar mensagens para outras pessoas dentro do jogo, com o consentimento dos pais, a empresa está implementando medidas para reduzir o risco de abusos. Uma das inovações é uma configuração integrada que permite que usuários menores de 13 anos acessem mensagens de transmissão pública apenas em jogos ou experiências.
A plataforma, que alcançou um recorde de 89 milhões de usuários no último trimestre, também está oferecendo mais controle parental. Pais e responsáveis poderão gerenciar remotamente a conta Roblox de seus filhos, visualizar listas de amigos, definir controles de gastos e gerenciar o tempo de tela. Essa medida é uma resposta ao crescente interesse por ferramentas de segurança online. Em agosto, a Turquia bloqueou o acesso ao Roblox em resposta a uma ordem judicial, que investigava preocupações sobre conteúdo gerado por usuários que poderia levar a abusos.
Também em 2022, uma ação judicial foi movida em São Francisco, nos EUA, alegando que o Roblox facilitou a exploração sexual e financeira de uma menina da Califórnia por homens adultos. A empresa foi acusada de incentivar a menina a beber, abusar de medicamentos prescritos e compartilhar fotos sexualmente explícitas. Neste contexto, a empresa está implementando mudanças significativas.
O Roblox substituirá os rótulos de conteúdo com base na idade por descrições mais detalhadas, variando de ‘Mínimo’ a ‘Restrito’. Esses rótulos indicarão o tipo de conteúdo que os usuários podem esperar. Por padrão, os menores de nove anos só terão acesso a jogos rotulados como ‘Mínimo’ ou ‘Suave’. Essas novas restrições também impedirão que essas crianças pesquisem, descubram ou joguem experiências não rotuladas. A empresa informou que o conteúdo restrito permanecerá inacessível até que o usuário tenha pelo menos 17 anos de idade e tenha verificado sua idade.
A transição dos rótulos de conteúdo com base na idade para descrições mais detalhadas é uma tentativa de abordar os desafios de segurança online. Embora a empresa tenha enfrentado críticas por não ter feito o suficiente para proteger seus usuários, as mudanças implementadas buscam ser mais ambiciosas na proteção de dados, garantindo uma experiência mais segura para todos os usuários.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo