Unsplash

Unsplash

Waarom je ChatGPT beter niet als je persoonlijke therapeut gebruikt

1Reacties
Redacteur

Sommige mensen schijnen hun hart uit te storten bij ChatGPT. De AI-chatbot wordt op die manier als een soort therapeut ingezet. Wat sommige mensen echter niet weten is dat deze therapeut geen beroepsgeheim kent. OpenAI-ceo Sam Altman waarschuwt daarvoor.

Sommige mensen schijnen hun hart uit te storten bij ChatGPT. De AI-chatbot wordt op die manier als een soort therapeut ingezet. Wat sommige mensen echter niet weten is dat deze therapeut geen beroepsgeheim kent. OpenAI-ceo Sam Altman waarschuwt daarvoor.

'AI-wereld beschermt je privacy op dit gebied niet'

Hij zegt dat de AI-wereld nog niet heeft uitgevogeld hoe de privacy van gebruikers kan worden beschermd als het om dit soort gevoelige onderwerpen gaat. Dat heeft alles te maken met het beroepsgeheim dat simpelweg niet van toepassing is als je therapeut kunstmatige intelligentie is.

In de podcast This Past Weekend w/Theo Von werd hem gevraagd hoe AI werkt met het juridische systeem van nu. Zijn antwoord? Er is nog geen juridisch kader of een beleidskader vastgesteld voor AI en dat komt erop neer dat er geen enkele vertrouwelijkheid hoeft te zijn vanuit de AI-chatbot. De ceo erkent dat vooral jonge mensen het gebruiken als een soort psycholoog of life coach, door hun relatieproblemen in te typen en te vragen wat ze moeten doen, maar de manier waarop AI ermee kan omgaan is heel anders dan bij een dokter. 

Privacyzorgen terecht

Altman geeft aan dat dit een reden is voor privacyzorgen bij gebruikers als het bijvoorbeeld tot een rechtszaak komt. Zijn bedrijf moet juridisch gezien die gesprekken prijsgeven. Hij vindt dat niet wenselijk. “Ik vind dat echt verknipt. Ik denk dat we voor je gesprekken met AI hetzelfde concept van privacy zouden moeten hanteren als voor een therapeut of iets dergelijks. Maar een jaar geleden hoefde niemand hier nog over na te denken.”

Altman geeft het niet alleen aan omdat hij wil dat gebruikers zich hiervan bewust worden, hij zegt het ook omdat hij dat voor zijn bedrijf niet prettig vindt. Dit gebrek aan privacy kan zorgen dat mensen minder bereidwillig zijn om AI te gebruiken. Plus, je data kan ook worden gebruikt om AI te trainen. Bovendien speelt er ook nog iets in de achtergrond, namelijk een rechtszaak met The New York Times dat stelt dat de chats van honderden miljoenen mensen die ChatGPT gebruiken zouden moeten worden opgeslagen. OpenAI vindt dat veel te ver gaan

Altman deelde niet hoe lang hij denkt dat het nog duurt voor er duidelijke juridische kaders komen op ChatGPT, als dat al realistisch is. Mocht je ChatGPT dus gebruiken als een soort psycholoog, houd er dan rekening mee dat er boven deze virtuele divan microfoons hangen.

Lees op Bright meer over AI.

Video