Unsplash

Kan AI inmiddels beter gamen dan wij?
AI-systemen worden al decennialang getest op hun gamevaardigheden. Van Deep Blue dat in 1997 schaakkampioen Garry Kasparov versloeg, tot AlphaGo dat later het veel complexere bordspel Go domineerde. Maar zijn ze nu dan écht beter dan ons?
Met technieken als reinforcement learning, waarbij een systeem miljoenen keren oefent via trial-and-error, leerde AI niet alleen klassieke Atari-games spelen, maar ook complexe titels als Dota 2 en StarCraft II. Op dat soort afgebakende taken presteren ze inmiddels vaak beter dan mensen.
'Vrije' games zijn nog altijd erg moeilijk
Toch zit daar een fundamentele beperking. Volgens onderzoek van onder anderen Julian Togelius zijn AI-modellen nog altijd slecht in iets wat voor mensen vanzelfsprekend is: snel nieuwe, onbekende games begrijpen. Zet een geavanceerd taalmodel in een spel dat het nog nooit heeft gezien, en de kans is groot dat het faalt.
Dat komt doordat AI vooral uitblinkt in specifieke taken met duidelijke regels en doelen. Schaken of Go hebben vaste structuren; zelfs veel videogames zijn uiteindelijk terug te brengen tot optimalisatieproblemen. Maar in open, minder gestructureerde werelden, zoals Red Dead Redemption of Minecraft, wordt succes vager. Daar moeten spelers eigenlijk altijd intuïtie, ervaring en interpretatie inzetten.
De mens heeft levenservaring
Mensen hebben namelijk een voordeel dat moeilijk te repliceren is: levenservaring. Waar een AI miljoenen pogingen nodig heeft om een spel te leren, begrijpt een mens vaak binnen enkele uren de basis. Dat komt doordat we al van jongs af aan leren hoe de wereld werkt. Die kennis nemen we automatisch mee naar nieuwe situaties, ook in games.
Er wordt wel vooruitgang geboekt. Zo presenteerde Google DeepMind recent een model dat beter omgaat met onbekende 3D-omgevingen door redeneervermogen toe te voegen. Maar echt menselijk niveau, waarbij AI willekeurige nieuwe games net zo snel leert als een mens, is nog ver weg.









