Roblox hat eine Reihe neuer Sicherheitsfunktionen vorgestellt, die speziell für Teenager im Alter von 13 bis 17 Jahren konzipiert sind. Dazu gehört eine neuartige Altersschätzungstechnologie, die KI nutzt, um das Alter eines Nutzers anhand eines eingereichten Video-Selfies einzuschätzen.
Die Ankündigung erläutert mehrere neue Maßnahmen zur Verbesserung der Sicherheit von Teenagern und Kindern auf der Plattform. Kern dieses Updates sind Funktionen, die Teenagern (13-17) mehr Autonomie gewähren als jüngeren Nutzern, während sie dennoch mehr Einschränkungen behalten als Konten für Erwachsene. Eine wichtige Funktion ermöglicht es Teenagern, "vertrauenswürdige Kontakte" zu benennen, mit denen sie auf Roblox ohne Chatfilter kommunizieren können. Laut Roblox zielt diese Initiative darauf ab, Gespräche innerhalb der überwachten Plattformumgebung zu halten, anstatt Teenager zu unsichereren Drittanbieter-Apps zu treiben, wo unangemessene Diskussionen stattfinden könnten.
Vertrauenswürdige Kontakte sind für Nutzer gedacht, die sich im echten Leben kennen. Wenn ein Teenager jemanden ab 18 Jahren als vertrauenswürdigen Kontakt hinzufügen möchte, muss dies über einen QR-Code-Scanner oder einen Kontakt-Importeur zur Verifizierung erfolgen.
Bisher forderte Roblox einen staatlichen Ausweis, um zu bestätigen, dass ein Nutzer 13+ oder 18+ ist, um auf bestimmte Chatfunktionen zugreifen zu können. Das Unternehmen führt nun eine alternative Verifizierungsmethode ein. Nutzer können ein "Video-Selfie" einreichen, das eine KI anhand eines großen, diversen Datensatzes analysiert, um zu schätzen, ob die Person über 13 ist. Ähnliche KI-gestützte Altersschätzfunktionen wurden bereits früher in diesem Jahr von Google und im Vorjahr von Meta getestet.
Zusätzlich zu diesen Updates führt Roblox weitere Tools ein, wie Online-Status-Steuerungen, einen "Nicht stören"-Modus und erweiterte Elternkontrollen für Konten, die mit einem Teenager-Profil verknüpft sind.
Roblox stand aufgrund seines Umgangs mit Kindersicherheit wiederholt in der Kritik. 2018 gab es Berichte darüber, dass der Avatar eines Siebenjährigen im Spiel sexuell missbraucht wurde und ein Sechsjähriger in einen "Sex-Raum" eingeladen wurde. Eine Untersuchung von People Make Games aus dem Jahr 2021 warf Roblox' Geschäftsmodell vor, Kinderarbeit auszubeuten. Das Unternehmen wurde 2022 in San Francisco verklagt, weil es angeblich die finanzielle und sexuelle Ausbeutung eines 10-jährigen Mädchens ermöglicht habe. Weitere Klagen im Jahr 2023 behaupteten, die Plattform habe ein illegales Glücksspiel-Ökosystem begünstigt und lasche Sicherheitsprotokolle, die Kinder Erwachseneninhalten aussetzten. Im letzten Jahr hob ein Bloomberg-Bericht die Verbreitung von Kinderschändern auf der Plattform hervor. Im gleichen Jahr gab Roblox an, 2023 über 13.000 Fälle von Kindesausbeutung an das National Center for Missing and Exploited Children gemeldet zu haben, was zur Verhaftung von 24 Personen führte, die verdächtigt wurden, Kinder über das Spiel anzusprechen.
"Sicherheit war schon immer grundlegend für alles, was wir bei Roblox tun", erklärte Chief Safety Officer Matt Kaufman in der Ankündigung. "Unser Ziel ist es, die Welt in puncto Sicherheit und Zivilität für Online-Spiele anzuführen. Wir sind bestrebt, Erlebnisse zu unterstützen, die sowohl zutiefst fesselnd als auch empowernd für Spieler aller Altersgruppen sind, während wir kontinuierlich die Art und Weise innovieren, wie Nutzer sich verbinden und interagieren."