Roblox ha presentado un nuevo conjunto de funciones de seguridad diseñadas específicamente para adolescentes de 13 a 17 años. Esto incluye una novedosa tecnología de estimación de edad que utiliza inteligencia artificial para evaluar la edad de un usuario basándose en un selfie en vídeo enviado.
El anuncio detalla varias medidas nuevas destinadas a mejorar la seguridad de adolescentes y niños en la plataforma. La piedra angular de esta actualización son funciones que otorgan a los adolescentes (13-17) más autonomía que a los usuarios más jóvenes, aunque mantienen más restricciones que las cuentas de adultos. Una característica clave permite a los adolescentes designar "conexiones de confianza" con quienes pueden comunicarse en Roblox sin filtros de chat. Según Roblox, esta iniciativa pretende mantener las conversaciones dentro del entorno controlado de la plataforma, en lugar de empujar a los adolescentes hacia aplicaciones externas menos seguras donde podrían darse conversaciones inapropiadas.
Las conexiones de confianza están pensadas para usuarios que se conocen en la vida real. Si un adolescente desea añadir a alguien de 18 años o más como conexión de confianza, debe hacerlo utilizando un escáner de código QR o un importador de contactos para su verificación.
Anteriormente, Roblox requería una identificación gubernamental para verificar que un usuario tenía 13 años o más, o 18 años o más, para acceder a ciertas funciones de chat. La compañía ahora está introduciendo un método de verificación alternativo. Los usuarios pueden enviar un "selfie en vídeo", el cual una IA analizará comparándolo con un amplio y diverso conjunto de datos para estimar si la persona tiene más de 13 años. Funciones similares de estimación de edad con IA fueron probadas por Google a principios de este año y por Meta el año pasado.
Junto con estas actualizaciones, Roblox está implementando herramientas adicionales como controles de estado en línea, un modo "No molestar" y controles parentales mejorados para cuentas vinculadas al perfil de un adolescente.
Roblox ha enfrentado un escrutinio continuo sobre su enfoque de la seguridad infantil. En 2018, surgieron informes sobre el avatares de un niño de siete años siendo agredido sexualmente en el juego y de un niño de seis años siendo invitado a una "sala sexual". Una investigación de People Make Games en 2021 acusó al modelo de negocio de Roblox de explotar mano de obra infantil. La compañía enfrentó una demanda en San Francisco en 2022 por supuestamente permitir la explotación financiera y sexual de una niña de 10 años. Otras demandas en 2023 alegaron que la plataforma facilitaba un ecosistema de apuestas ilegales y tenía protocolos de seguridad laxos que exponían a los niños a contenido para adultos. El año pasado, un informe de Bloomberg destacó la prevalencia de depredadores de menores en la plataforma. Ese mismo año, Roblox declaró que reportó más de 13,000 casos de explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados en 2023, lo que condujo al arresto de 24 individuos sospechosos de dirigirse a niños a través del juego.
"La seguridad siempre ha sido fundamental para todo lo que hacemos en Roblox", declaró el Director de Seguridad, Matt Kaufman, en el anuncio. "Nuestro objetivo es liderar el mundo en seguridad y civismo para los juegos en línea. Estamos dedicados a apoyar experiencias que sean profundamente atractivas y empoderadoras para jugadores de todas las edades, mientras innovamos continuamente en cómo los usuarios se conectan e interactúan".