Europese Unie heeft flinke kluif aan privacyregels voor ChatGPT

©Unsplash

Europese Unie heeft flinke kluif aan privacyregels voor ChatGPT

Al ruim een jaar werken privacywaakhonden van de Europese Unie aan regels voor ChatGPT, maar dat blijkt absoluut geen gemakkelijke klus. Met name de manier waarop de huidige privacyregels moeten toezien op de persoonlijke informatie die OpenAI verwerkt is een hersenbreker voor de Europese wetgevers.

Dat blijkt uit voorlopige conclusies van een EU-taskforce die al langer dan een jaar nadenkt over privacyregels waar OpenAI zich aan moet houden. Met name de vraag of de manier waarop de ChatGPT-maker persoonlijke informatie verwerkt om de AI-chatbot te trainen wel voldoet aan de huidige regels, is een lastig punt voor de taskforce.

En dat terwijl er juist behoefte is aan duidelijke regels in heel Europa voor de verwerking van persoonsgegevens door AI-modellen zoals dat van ChatGPT. In potentie kunnen boetes voor overtredingen door AI-bedrijven in Europa oplopen tot vier procent van de jaarlijks geïnde boetes.

De chatbot verzamelt en verwerkt namelijk op grote schaal persoonsgegevens afkomstig uit openbare bronnen, zoals social media-accounts. Denk bijvoorbeeld aan politieke voorkeur, seksualiteit en medische informatie. Het aantal klachten over onjuist verwerkte persoonlijke informatie door OpenAI neemt dan ook toe en zolang er geen duidelijke privacywetgeving voor AI uit Europa komt, zal OpenAI zeer waarschijnlijk blijven werken zoals het nu doet.

Polen, Oostenrijk en Italië grepen al in

Persoonsgegevens mogen niet zomaar verwerkt worden voor AI: OpenAI moet bijvoorbeeld kunnen vertellen waarom het nodig is om bepaalde informatie over personen te verzamelen. Daarnaast moeten personen ook in staat worden gesteld door OpenAI om bezwaar in te dienen tegen de manier waarop hun informatie wordt verwerkt.

Op dit moment kunnen landen afzonderlijk ingrijpen wanneer OpenAI de regels overtreedt. In september vorig jaar gebeurde dat in Polen, toen ChatGPT informatie over iemand verzon en vervolgens weigerde zijn fouten toe te geven. Een soortgelijk geval deed zich vorige maand voor in Oostenrijk. In beide gevallen werd een onderzoek geopend. In Italië greep de lokale privacywaakhond vorig jaar al in. Die verplichtte OpenAI om te stoppen met het inzamelen van informatie over Italiaanse burgers. De ingreep leidde tot het tijdelijk stopzetten van ChatGPT in Italië.

Meer over AI, of blijf op de hoogte via de Bright Nieuwsbrief.