Unsplash

Unsplash

OpenAI mag AI-tool Claude van Anthropic niet meer gebruiken

PRAAT MEE!
Redacteur

Het is klaar: OpenAI heeft geen toegang meer tot Claude van Anthropic. OpenAI verloor deze week de mogelijkheid om het te gebruiken, omdat het inbreuk zou doen op de servicevoorwaarden van Anthropic.

Het technisch personeel van OpenAI gebruikt zo voor GPT-5 eraan komt de programmeertools van Claude, stelt Anthropic. “Claude Code is populair bij programmeurs over de hele wereld, dus het verbaast ons niet, maar dit is wel een directe schending van onze servicevoorwaarden.”

Concurrerende AI-modellen

In die servicevoorwaarden staat dat klanten de dienst niet mogen gebruiken om “een concurrerend product of dienst te ontwikkelen, inclusief het trainen van concurrerende AI-modellen” of om de diensten “te reverse-engineeren of te dupliceren”. Als de mensen van OpenAI inderdaad (mede) Claude gebruiken om het nieuwe taalmodel achter ChatGPT te maken, dan staat Anthropic in zijn recht om het die toegang te ontzeggen.

OpenAI zou API’s hebben gebruikt om Claude op zijn eigen tools aan te sluiten om zo tests uit te voeren ten behoeve van GPT-5. Het kon zo onder andere kijken hoe Claude reageert als het moet programmeren en dan hoe het eigen systeem dat doet. “Het is de norm in de branche om andere AI-systemen te evalueren om de voortgang te benchmarken en de veiligheid te verbeteren. Hoewel we het besluit van Anthropic om onze API-toegang af te sluiten respecteren, is het teleurstellend gezien het feit dat onze API voor hen beschikbaar blijft”, aldus OpenAI.

Anthropic sluit OpenAI af

Dit is niet volledig losstaand: het gebeurt vaker dat concurrenten elkaar uitsluiten van hun API’s om het zo moeilijker te maken bepaalde tests te doen. Vorige maand nog beperkte Salesforce de toegang van concurrenten tot bepaalde gegevens via de Slack API. Ook Anthropic deed het al eerder: vorige maand beperkte het bedrijf de toegang van de AI-progammeertool Windsurf tot zijn modellen, nadat het gerucht ging dat OpenAI het bedrijf zou overnemen. Uiteindelijk gebeurde dat laatste niet.

Lees meer over kunstmatige intelligentie.