Google blokkeert gendervooroordelen in Gmail
Typehulp

Google blokkeert gendervooroordelen in Gmail

28-11-2018 15:17 Laatste update: 15:18

Om gebruikers niet te beledigen heeft Google in zijn kunstmatige intelligentie voor het automatisch aanvullen van zinnen in Gmail vooroordelen op basis van gender geblokkeerd.

Het gaat om de Gmail-functie Slim Opstellen, die eerder dit jaar bij Google-ontwikkelaarsconferentie I/O werd geïntroduceerd. Met Slim Opstellen kijkt kunstmatige intelligentie mee met wat gebruikers typen. Waar mogelijk stelt de AI voor om zinnen af te maken, gebruikers hoeven dan alleen op de tab-toets te drukken.

In januari van dit jaar bleek echter al dat de kunstmatige intelligentie mannen voortrekt, zegt Gmail-productmanager Paul Lambert tegen Reuters. Althans, toen een Google-medewerker intypte 'Ik ontmoet volgende week een investeerder', wilde Slim Opstellen dat afmaken met 'Wil je hem ontmoeten'. Dat gebeurde in veel gevallen waarbij de kunstmatige intelligentie een keus kon maken tussen en mannen en vrouwen.

AI leert van het verleden

Volgens Google is het een logisch maar onwenselijk gevolg van de manier waarop kunstmatige intelligentie dingen leert. Dat gebeurt met datasets: grote hoeveelheden informatie waarin software naar patronen en houvast zoekt. En omdat mannen historisch gezien nou eenmaal oververtegenwoordigd zijn in veel werkgebieden, denkt de AI van Google in zulke gevallen automatisch aan mannen. 

Gender is volgens Lambert een te belangrijk onderwerp om zulke fouten of vooroordelen bij te hebben. Google heeft nog gezocht naar manieren om zijn kunstmatige intelligentie van zijn vooroordelen af te helpen, maar dat mocht vooralsnog niet baten. Daarom is het voorspellend typen bij woorden met gender voorlopig uitgeschakeld. Dat zou invloed hebben op minder dan 1 procent van de gevallen waarin Slim Opstellen wordt gebruikt. Volgens Google wordt de functie in 11 procent van de verzonden Gmail-berichten gebruikt.