ChatGPT-bug lekte gesprek-geschiedenis aan andere gebruikers
'We vinden het vreselijk'

ChatGPT-bug lekte gesprek-geschiedenis aan andere gebruikers

23-03-2023 12:02 Laatste update: 12:02

De populaire AI-chatbot ChatGPT had een bug waardoor gebruikers de gesprekken konden zien die anderen met de chatbot voerden. Daarbij is mogelijk privé-informatie uitgelekt.

"We hadden een groot probleem met ChatGPT door een bug in een open source-bibliotheek, waar we inmiddels een oplossing voor hebben uitgebracht", [schrijft][1] Sam Altman, topman van ChatGPT-maker OpenAI. "Een klein deel van de gebruikers kon de titels van conversatie-geschiedenis van anderen inzien. We vinden dat vreselijk", aldus Altman.

Tal van gebruikers meldden eerder deze week dat zij plots andermans chats in hun chatgeschiedenis terugzagen op ChatGPT. In eerste instantie werd gedacht aan een hack, maar Altman wijst nu dus op problemen met de bestandsbibliotheek waar ChatGPT gebruik van maakt.

Volledige chats niet uitgelekt

Door de bug heeft ChatGPT zijn chatgeschiedenis afgelopen maandag tijdelijk uitgeschakeld. Gebruikers die ChatGPT toen hebben gebruikt, kunnen hun vragen en antwoorden van die dag ook niet meer terugvinden. Altman belooft een uitgebreider verslag van de problemen.

De gevolgen voor de privacy van gebruikers lijken gering, omdat volgens Altman alleen de titels van de chatgeschiedenis zijn uitgelekt, niet de volledige inhoud. Toch is het mogelijk dat ook die titels informatie weggeven die gebruikers liever privé zouden willen houden. Gebruikers doen er echter goed aan om niet al te veel gevoelige informatie met ChatGPT te delen. In de voorwaarden van de dienst staat dat OpenAI zaken als de opdrachten van gebruikers mag gebruiken om zijn kunstmatige intelligentie verder te ontwikkelen.

Luister ook de Bright Podcast: