© Unsplash

AI-chatbots trainen standaard op jouw privégesprekken
Wanneer je ChatGPT om advies vraagt of Claude gebruikt voor je huiswerk zijn je gesprekken waarschijnlijk niet zo privé als je denkt. Uit een studie van Stanford University blijkt namelijk dat alle grote AI-chatbots conversaties standaard opslaan zodat ze als trainingsdata gebruikt kunnen worden.
De onderzoekers keken naar het privacybeleid van zes grote AI-ontwikkelaars: Amazon, Anthropic, Google, Meta, Microsoft en OpenAI. Samen hebben deze bedrijven zo goed als heel de chatbotmarkt in handen. En om die positie te behouden en uit te breiden, gebruiken ze allemaal standaard wat jij in de chat typt om hun AI-modellen te trainen.
Dat werkt zo. Wanneer je een vraag stelt aan een chatbot, wordt niet alleen het antwoord gegenereerd, maar wordt je hele gesprek opgeslagen. Deze gegevens worden vervolgens toegevoegd aan de enorme databases met tekstinformatie waarop het AI-model wordt getraind. Door miljoenen van zulke gesprekken te analyseren, leert het systeem betere antwoorden te geven op toekomstige vragen.
Het privacyprobleem
Het probleem is dat mensen allerlei persoonlijke informatie delen met chatbots. Denk aan al de keren dat je medische informatie, financiële zorgen, relatieproblemen of werkgerelateerde documenten hebt gedeeld. Al deze informatie kan in principe gebruikt worden als trainingsmateriaal.
De meeste bedrijven bieden wel een optie om je gegevens uit te sluiten van training, maar je moet daar actief voor kiezen. Standaard zit je er automatisch in. Alleen Anthropic had tot september 2025 een opt-in systeem, maar schakelde toen ook over naar opt-out.
Kinderen niet uitgezonderd
Vier van de zes onderzochte bedrijven gebruiken ook data van tieners tussen dertien en achttien jaar om modellen te trainen. Alleen Anthropic aanvaardt helemaal geen gebruikers onder de achttien. Microsoft doet dat wel, maar geeft expliciet aan dat het geen gegevens van minderjarigen gebruikt.
Lees meer over wetenschap en mis niets met de Bright-app.