©Unsplash

©Unsplash

Anthropic heeft een spionnen-AI gebouwd voor geheime informatie

PRAAT MEE!

We kennen AI-bots als klantenservicemedewerkers, zelfs als assistenten in de juridische wereld, maar nu is er ook een spion-chatbot. Anthropic maakte een soort James Bond-versie van Claude die geheime informatie verwerkt.

Claude Gov, zoals de AI-chatbot echt heet, is verantwoordelijk voor het verwerken van ‘classified’ informatie voor de Amerikaanse overheid om zo te helpen de nationale veiligheid te bewaren. Claude Gov is gemaakt op basis van directe feedback van overheidsmedewerkers op het gebied van strategische planning, inlichtingenanalyse en operationele ondersteuning. De toegang ervan is niet voor burgers, maar juist voor mensen die bij de overheid werken in systemen die geheim zijn voor anderen.

Claude als spion

Bovendien is het ook helemaal niet zo ingericht als de Claude die consumenten kennen. Zo zijn ze juist gebrand op vertrouwelijke informatie, terwijl in de gewone Claude al snel een muur optrekt wanneer er vertrouwelijke informatie aan bod komt. Claude Gov kan bijvoorbeeld documenten van defensie verwerken en is beter in het herkennen en vertalen van talen en dialecten. Wel krijgen ze dezelfde veiligheidstests als andere Claude-modellen. 

Er zijn meerdere AI-bots gemaakt voor de inlichtingendiensten en defensie. Microsoft lanceerde in 2024 nog een ‘spionnen’-versie van OpenAI’s GPT-4 en dat draaide op een separaat netwerk dat alleen voor de overheid toegankelijk was. Het was zelfs niet op internet aangesloten, al was het niet bepaald kleinschalig. Er hebben maar liefst 10.000 mensen toegang toe.

Hallucinaties

Bij dit soort spion-AI’s is het meer dan ooit van belang dat er geen hallucinaties plaatsvinden. Het is niet de bedoeling dat er onjuiste informatie wordt voortgebracht door de AI, zeker niet als het om zulke belangrijke informatie gaat. Dit risico is er wel: AI-neurale netwerken werken op basis van statistische waarschijnlijkheden en dus  kunnen ze inlichtingendiensten mogelijk verkeerd informeren als ze niet correct worden gebruikt. 

Dat AI-chatbots vaak ook heel zeker van hun zaak klinken maakt het moeilijker om fouten te zien. Zo kan een instantie beslissingen nemen op het gebied van nationale veiligheid, gebaseerd op nonsens. Er is dus alsnog een menselijke check op deze informatie nodig.

Lees meer over AI en abonneer je op onze nieuwsbrief.