Lar Notícias Roblox Apresenta IA que Detecta Idade a Partir de Selfies em Vídeo

Roblox Apresenta IA que Detecta Idade a Partir de Selfies em Vídeo

Autor : Charlotte Jan 08,2026

O Roblox revelou um novo conjunto de funcionalidades de segurança projetadas especificamente para adolescentes com idades entre 13 e 17 anos. Isso inclui uma nova tecnologia de estimativa de idade que utiliza IA para avaliar a idade de um usuário com base numa selfie em vídeo enviada.

O anúncio detalha várias novas medidas destinadas a aumentar a segurança de adolescentes e crianças na plataforma. Centrais nesta atualização são funcionalidades que concedem aos adolescentes (13-17) mais autonomia do que aos usuários mais jovens, enquanto mantêm mais restrições do que as contas de adultos. Uma funcionalidade crucial permite que adolescentes designem "conexões seguras" com quem possam comunicar no Roblox sem filtros de chat. Segundo o Roblox, esta iniciativa visa manter conversas dentro do ambiente monitorizado da plataforma, em vez de empurrar os adolescentes para aplicativos de terceiros menos seguros onde poderiam ocorrer discussões inapropriadas.

As conexões seguras destinam-se a utilizadores que se conhecem na vida real. Se um adolescente desejar adicionar alguém com 18 anos ou mais como uma conexão segura, deve fazê-lo usando um leitor de código QR ou um importador de contactos para verificação.

Anteriormente, o Roblox exigia um documento de identificação governamental para verificar se um usuário tinha 13+ ou 18+ para aceder a certas funcionalidades de chat. A empresa está agora a introduzir um método de verificação alternativo. Os usuários podem enviar uma "selfie em vídeo", que uma IA analisará comparando-a com um conjunto de dados grande e diversificado para estimar se a pessoa tem mais de 13 anos. Funcionalidades semelhantes de estimativa de idade alimentadas por IA foram testadas pela Google mais cedo este ano e pela Meta no ano passado.

Além destas atualizações, o Roblox está a implementar ferramentas adicionais, como controlos de estado online, um modo "Não Perturbe" e controlos parentais reforçados para contas ligadas ao perfil de um adolescente.

O Roblox enfrentou um escrutínio contínuo sobre a sua abordagem à segurança infantil. Em 2018, surgiram relatos sobre o avatar de uma criança de sete anos ser agredido sexualmente no jogo e uma criança de seis anos ser convidada para uma "sala de sexo". Uma investigação de 2021 da People Make Games acusou o modelo de negócio do Roblox de explorar trabalho infantil. A empresa enfrentou um processo judicial em São Francisco em 2022, acusada de permitir a exploração financeira e sexual de uma menina de 10 anos. Outros processos judiciais em 2023 alegaram que a plataforma facilitou um ecossistema de jogo ilegal e tinha protocolos de segurança frouxos que expunham as crianças a conteúdo adulto. No ano passado, um relatório da Bloomberg destacou a prevalência de predadores de crianças na plataforma. Nesse mesmo ano, o Roblox declarou ter reportado mais de 13.000 casos de exploração infantil ao Centro Nacional para Crianças Desaparecidas e Exploradas em 2023, o que levou à detenção de 24 indivíduos suspeitos de visar crianças através do jogo.

"A segurança sempre foi fundamental para tudo o que fazemos no Roblox," declarou o Diretor de Segurança Matt Kaufman no anúncio. "O nosso objetivo é liderar o mundo em segurança e civilidade para jogos online. Estamos dedicados a apoiar experiências que são profundamente envolventes e capacitadoras para jogadores de todas as idades, continuando a inovar na forma como os utilizadores se conectam e interagem."