
Roblox zet AI in om schadelijke content neer te sabelen
Mocht je bekend zijn met Roblox, dan weet je misschien dat de game vol zit met allerlei vormen van schadelijk content, waar de vooral jonge gebruikersbasis dagelijks mee moet dealen. Het platform wil dit nu tegengaan door AI in te zetten voor het modereren van die content.
Daarvoor rolt het nu een multimodaal AI-moderatiesysteem uit dat in real-time complete in-game scènes scant, om schadelijk content neer te sabelen voordat het de kinderen bereikt. De oude manier van werken bekeek één object per keer en ging dan pas handelen. Het nieuwe systeem bekijkt alles in één keer (waaronder avatars, tekst, 3d-objecten en meer) om te controleren of ze wel voldoen aan de richtlijnen die Roblox zelf opstelde.
5000 servers per dag gesloten
Mocht de moderatietool iets spotten dat niet door de beugel kan, dan sluit het de server in kwestie af. Sinds de lancering van het nieuwe stuk gereedschap heeft Roblox daardoor dagelijks al meer dan vijfduizend servers kunnen sluiten waar mensen zich niet kunnen gedragen. Het is de bedoeling dat het bedrijf honderd procent van de speeltijd gaat monitoren en later ook individuele gebruikers kan opsporen en verwijderen die het steeds voor de rest verpesten.
Als servermaker hoef je niet in het duister te tasten, ondertussen. Want in je dashboard kun je precies zien welke servers offline gehaald zijn door malafide gedrag. Ook kun je zelf achterhalen waarom dit gebeurt, waardoor je mogelijk aanpassingen kunt doen om dit in de toekomst te voorkomen. Zo kun je bijvoorbeeld in-game tekentools of gebruikte emotes aanpassen, zodat je spelers niet in de verleiding komen zich te misdragen wanneer ze maar willen.






