Beeld © Apple
Beeld © Apple
Algoritme

Creditcard Apple onderzocht wegens vermeende discriminatie

11 november 2019 13:35

Een Amerikaanse financiële toezichthouder gaat Apple's creditcard Apple Card onderzoeken, nadat gebruikers melding maakten van vermeende discriminatie.

Het onderzoek werd aangekondigd door het New York Department of Financial Services, meldt Bloomberg. Aanleiding was een serie tweets van David Heinemeier Hansson, oprichter van het ontwikkelplatform Ruby on Rails.

De vrouw van Hansson kreeg een veel lager krediet aangeboden dan hij zelf, zonder duidelijke reden. Apple zei bij navraag dat het een algoritme gebruikt om kredieten toe te wijzen, en dat algoritme is niet inzichtelijk. Volgens Hansson zou zijn vrouw op basis van hun belastinginformatie juist een veel betere kredietscore dan hij moeten krijgen.

Ook Apple-medeoprichter Steve Wozniak had last van het algoritme. "Ik kreeg een tien keer hogere kredietlimiet [dan mijn vrouw]. We hebben geen verschillende banken, creditcardrekeingen of afzonderlijke bezittingen", aldus Wozniak.

Veel andere mensen op Twitter vertellen vergelijkbare verhalen, waarbij vrouwen een fors lager krediet krijgen dan hun man zonder logische verklaring.

'Algoritmes mogen ook niet discrimineren'

Apple geeft sinds augustus een eigen creditcard uit in de VS, in samenwerking met de bank Goldman Sachs. Het Department of Financial Services van New York gaat nu onderzoeken of er inderdaad sprake is van discriminatie.

"Elk algoritme dat al dan niet expres resulteert in een discriminerende behandeling van vrouwen of iedere ander, is een schending van de wet van New York", aldus een woordvoerder van de toezichthouder. Een woordvoerder van Goldman Sachs stelt: "In alle gevallen hebben en zullen wij geen beslissingen maken gebaseerd op factoren als gender".

Krediet plots omhoog

Toch kreeg de vrouw van Hansson na de ophef op Twitter plots een hoger kredietplafond op haar Apple Card, zonder nieuwe informatie te overleggen. "Ik geloof niet dat er iemand bewust heeft willen discrimineren", zegt Hansson. "Maar dat maakt niet uit. Hoe weet je of er een probleem is met het zelflerende algoritme als niemand kan verklaren hoe die beslissing is gemaakt?"

Experts maken zich al langer zorgen over het groeiende gebruik van algoritmes. Vaak worden daarbij grote datasets gebruikt die de algoritmes onbedoeld een vooroordeel geven. Dat gebeurt bijvoorbeeld als een algoritme zonder transparantie of toezicht aannames doet op basis van data als gender, huidskleur of afkomst.

Kijk ook: nog meer algoritmes die de plank misslaan

Volg Bright op YouTube voor meer tech-video's