©Unsplash

©Unsplash

Is de Chinese AI-hit DeepSeek getraind op deze Amerikaanse AI?

Praat mee!
Redacteur

Het Chinese DeepSeek is misschien niet helemaal zo Chinees als werd gedacht. Anthropic beticht de Chinezen ervan dat Claude wordt gebruikt om hun AI te trainen. Dat geldt niet alleen voor DeepSeek, maar ook voor verschillende andere bedrijven. 

Anthropic denkt dat DeepSeek is getraind met de beredeneringstool van Claude, waarbij het censuur zou hebben toegevoegd aan de antwoorden op politiek gevoelige vragen. In een aankondiging laat Anthropic weten dat er 24.000 frauduleuze accounts zijn gemaakt en meer dan 16 miljoen gesprekken zijn gevoerd met Claude en dat dat waarschijnlijk komt van drie Chinese bedrijven. Het zou gaan om DeepSeek, MiniMax en Moonshot. 

Anthropic is not amused

Anthropic laat weten: “Hun labs maakten gebruik van een techniek genaamd distillatie, waarbij een minder krachtig model wordt getraind op de output van een sterker model. Distillatie is een veelgebruikte en legitieme trainingsmethode. Zo distilleren vooraanstaande AI-labs bijvoorbeeld routinematig hun eigen modellen om kleinere, goedkopere versies te maken voor hun klanten. Maar distillatie kan ook voor ongeoorloofde doeleinden worden gebruikt: concurrenten kunnen het inzetten om krachtige vermogens van andere labs in een fractie van de tijd die het nodig zou zijn om deze zelf te ontwikkelen over te nemen. Vaak ook tegen een fractie van de kosten.”

Waarschijnlijk hebben de modellen die op basis van interacties met Claude zijn gemaakt niet dezelfde veiligheidsmaatregelen ingebouwd en dat zou kunnen betekenen dat de AI door de overheid wordt gebruikt om grote cyberoperaties op te zetten, misinformatie te verspreiden en massasurveillance toe te passen. Anthropic stelt dat DeepSeek meer dan 150.000 berichten heen en weer stuurde met Claude en dat het Claude gebruikte om censuur-veilige antwoorden te bieden op politiek gevoelige vragen. Denk aan vragen over partijleiders en de autoriteit van de overheid. 

DeepSeek, Moonshot en MiniMax

Moonshot en MiniMax hadden meer dan 3,4 miljoen en 13 miljoen berichten over en weer gestuurd met Claude. Anthropic zou dan ook graag zien dat chiptoegang zou moeten worden gewijzigd door wetmakers, waardoor er niet zomaar kan worden getraind op andermans AI. Dat kan het echter dus niet alleen bepalen. Daarom publiceert het ook vrij veel cijfers en informatie over deze praktijken, om zo te zorgen dat de mensen die het beleid bepalen, maar ook cloudproviders en de algemene AI-industrie, beter begrijpen wat de problemen zijn van distillatie.

Is de Chinese AI-hit DeepSeek getraind op deze Amerikaanse AI?