Moral Machine: wie moet de zelfrijdende auto opofferen?

Moral Machine: wie moet de zelfrijdende auto opofferen?

29-09-2016 13:23 Laatste update: 27-04-2018 02:59

De zelfrijdende auto levert veel morele discussies op. Mag een auto jou opofferen als daarmee meer slachtoffers worden voorkomen? Een nieuwe site laat je kiezen.

Ontwikkelaars van zelfrijdende auto's komen niet alleen technische obstakels tegen, ook allerlei zware ethische kwesties. Zelfrijdende voertuigen kunnen in de positie komen dat ze een keuze moeten maken uit het redden van jou als bestuurder versus een groepje kinderen dat opeens de straat op rent. En als je de keuze hebt uit twee kanten om uit te wijken voor een obstakel, kies je er dan voor om de oude man op links, of de jonge man op rechts aan te rijden?

Het Amerikaanse Massachusetts Institute of Technology (MIT) heeft een site ontwikkeld, waarop je in dit soort situaties een keuze moet maken. De Moral Machine schotelt je scenario's voor met de vraag: wat zou de zelfrijdende auto (moeten) doen? Je kunt er ook zelf situaties in aanmaken, en discussiëren met anderen over de resultaten.

MIT wil er vooral de discussie over zelfrijdende auto's mee opvoeren, en een beeld krijgen van wat het publiek vindt van de keuzes die zelfrijdende auto's (zouden moeten) maken. Belangrijk, want mensen vinden het nog steeds moeilijk om te accepteren dat een auto voor hen keuzes maakt. In het wetenschappelijke tijdschrift Science publiceerden ze eerder al resultaten uit een vergelijkbaar onderzoek. Daaruit bleek dat de meeste mensen voorstander zijn van het opofferen van passagiers als er daarmee minder slachtoffers vallen. Maar zelf deelnemen in zo'n auto, zouden ze niet willen. Of ze in real life een dergelijke keuze zouden maken, is dus de vraag.