© Unsplash

Dit is hoe je zelfrijdende auto straks gaat beslissen over leven en dood
Stel: je zit in een zelfrijdende auto en je bent bijna te laat voor een belangrijke afspraak. Gaat de auto 20 kilometer per uur te hard rijden om je op tijd te brengen? Dat soort keuzes zijn nu nog een raadsel voor machines. Amerikaanse onderzoekers werken daarom aan een manier om zelfrijdende auto’s morele beslissingen te leren maken.
We maken dagelijks kleine keuzes als we rijden. Even door het geel licht scheuren, net op tijd, traag doorrollen bij een stopbord, of net iets harder gaan om een deadline te halen. Het lijken kleinigheden, maar ze kunnen grote gevolgen hebben. Daarom is het belangrijk dat zelfrijdende auto’s een moreel raamwerk hebben. Hoe leren we ze om te denken zoals wij? Zelfrijdende auto’s moeten namelijk niet alleen de weg op kunnen, maar ook snappen hoe mensen rijden: soms strikt volgens de regels, maar soms met een beetje flexibiliteit.
De onderzoekers van North Carolina State University hebben daarom het zogenoemde Agent-Daad-Gevolg-model ontwikkeld. Dit klinkt ingewikkeld, maar het is eigenlijk simpel. Het leert auto’s om drie dingen te checken. Ten eerste: wie doet iets (de agent). Bijvoorbeeld: waarom wil de bestuurder dit? Daarna: wat gebeurt er (de daad)? Gaat het om een klein risico of iets groters? En ten slotte: wat is het resultaat (het gevolg)? Is er schade, of helpt het juist? Door deze drie pijlers te combineren, kan een auto beter snappen wat wel en niet oké is.
Filosofen vinden het een goed idee
Om te testen of dit werkt, riepen de onderzoekers de hulp in van 274 filosofen, mensen die gewend zijn om over goed en fout na te denken. Ze kregen verkeerssituaties voorgelegd, zoals: “Is het oké om even te versnellen als er niemand in gevaar is?” Verrassend genoeg waren de filosofen, ondanks hun verschillende achtergronden, het vaak eens. Dat geeft hoop dat deze methode breed toepasbaar is.
Nu willen de onderzoekers de methode testen bij meer mensen, in verschillende culturen. Want wat filosofen in de VS normaal vinden, kan in Europa of Azië bijvoorbeeld anders liggen. Morele keuzes zijn niet overal hetzelfde, en dat maakt het extra uitdagend om auto’s van een moreel raamwerk te voorzien.
Lees meer over zelfrijdende auto's en mis niets met de Bright-app.