Dit mag je nu niet meer tegen ChatGPT zeggen

Dit mag je nu niet meer tegen ChatGPT zeggen

5 december om 14:44
Laatste update: 5 december om 16:35

Je mag ChatGPT niet meer vragen om een woord oneindig te herhalen. Dat gaat volgens OpenAI tegen de voorwaarden van het gebruik van de chatbot in.

Het was onderzoekers van Google Deepmind opgevallen dat ChatGPT delen van zijn trainingdata herproduceert, als je de chatbot vraagt om een woord oneindig te herhalen. Daarom mag dat nu niet meer van OpenAI.

Als ChatGPT een woord oneindig herhaalt, gaat dat op ten duur een keertje fout en komen er stukjes tekst naar boven. Deze tekstjes zijn onderdeel van de dataset waarop het taalmodel is getraind. OpenAI is erg geheimzinnig over welke data het hiervoor gebruik en bij normaal gebruik van de chatbot krijg je deze teksten niet te zien.

Telefoonnummers en e-mailadressen

In het onderzoek van Deepmind bleek 16,9 procent van de geteste woorden te resulteren in data met persoonlijke informatie zoals telefoonnummers en e-mailadressen, of stukjes tekst uit onderzoeken en nieuwsberichten.

De oplossing van OpenAI is nu om een waarschuwing te geven. Als je ChatGPT vraagt om een woord te herhalen, dan stopt die er vanzelf mee of krijg je een melding dat deze actie tegen de voorwaarden van ChatGPT in gaat.

Mis niks, volg ons WhatsApp-kanaal of abonneer je op de Bright Daily nieuwsbrief.