©Freepik

©Freepik

AI denkt nu net als mensen en maakt ook steeds vaker dezelfde denkfouten

Update: 3 april om 23:33

ChatGPT vertoont steeds vaker dezelfde denkfouten als mensen. Dat blijkt uit een groot onderzoek door wetenschappers. Het AI-systeem heeft in bijna de helft van de tests precies dezelfde vooroordelen als mensen en maakt vergelijkbare beoordelingsfouten.

Wetenschappers onderwierpen ChatGPT aan 18 verschillende tests die bekende menselijke denkfouten in kaart brengen. Denk bijvoorbeeld aan de neiging om risico's te overschatten, vast te houden aan eerste indrukken, of te veel waarde te hechten aan recente gebeurtenissen. Bij deze tests gedroeg de AI zich in veel gevallen opvallend 'menselijk'.

Het systeem loopt vaak net als mensen tegen de lamp, vooral bij het inschatten van risico's en het nemen van beslissingen onder onzekerheid. Bij sommige tests presteerde ChatGPT daarentegen beter dan mensen. Vooral bij opgaven waarbij statistisch redeneren belangrijk was, maakte de AI minder fouten. Maar zodra er emoties of voorkeuren in het spel kwamen, vertoonde het systeem verrassend menselijke trekjes.

Nieuwere versies van ChatGPT vertoonden sommige menselijke denkfouten verrassend genoeg nog vaker dan de oudere. Dit toont aan dat naarmate AI-systemen 'slimmer' worden, ze niet per se rationeler worden.

Wat betekent dit voor de toekomst?

Het onderzoek laat zien dat kunstmatige intelligentie het beste presteert bij taken waarbij duidelijke spelregels bestaan. Voor complexere beslissingen, waarbij intuïtie en voorkeuren een rol spelen, mogen we duidelijk niet zomaar vertrouwen op AI.

Het onderzoek roept ook filosofische vragen op: als AI-systemen dezelfde denkfouten maken als mensen, zijn ze dan meer 'menselijk' dan we dachten? Of laat dit juist zien dat menselijke vooroordelen onbedoeld in deze systemen geprogrammeerd worden? 

Lees meer nieuws over AI en blijf op de hoogte met de Bright-app.