©Unsplash

Anthropic: ‘DeepSeek genereert zeldzame informatie over biowapens’

Anthropic: ‘DeepSeek genereert zeldzame informatie over biowapens’

De meeste AI-chatbots zijn beperkt. Dat moet ook, want op die manier kun je de AI geen antwoorden laten geven die gevaarlijk zijn voor de mensheid. Een AI-bot die mogelijk geen passende veiligheidsregels heeft, is DeepSeek, stelt de CEO van Anthropic. Het zou vrij zeldzame informatie over biowapens prijsgeven wanneer ernaar gevraagd wordt.

DeepSeek heeft de afgelopen weken gezorgd voor flinke opschudding in de wereld van kunstmatige intelligentie. Aandelen kelderden bij zowel AI-bedrijven als chipmakers, en hooggeplaatsten uit de tech reageren op de plotselinge populariteit van deze Chinese AI-chatbot. Een chatbot die niet alleen open source is, maar ook veel minder chips gebruikt om, naar eigen zeggen, ‘hetzelfde resultaat’ te bereiken als zijn concurrenten.

Anthropic over DeepSeek

De ceo van Anthropic maakt zich zorgen over DeepSeek. Er zijn veel zorgen over de data die naar China wordt gestuurd, maar in dit geval draait het om iets anders. In de ChinaTalk-podcast zegt hij dat DeepSeek antwoorden genereerde over biowapens toen Anthropic een veiligheidstest uitvoerde.

Biowapens zijn bijvoorbeeld miltvuur, botulinetoxine of virussen zoals ebola en de pokken. Het zijn stuk voor stuk microbiologische wapens die giftig zijn voor mensen, dieren of planten. Van sommige van deze middelen is een kruimel al genoeg om mensen te doden. Dit zijn dus geen wapens waarvan je wil dat mensen ze zelf thuis gaan fabriceren.

Biowapens

Reden voor AI-bedrijven om te zorgen dat hun producten mensen niet wijzer maken over dit soort onderwerpen. Volgens de Anthropic-ceo kijkt zijn bedrijf regelmatig hoe verschillende AI-modellen omgaan met bepaalde onderwerpen, om zo een inzicht te krijgen in of de veiligheid van de Verenigde Staten in gevaar is. Het zoekt dan specifiek naar informatie over biowapens die niet zomaar op Google of in boeken staat.

DeepSeek is volgens hem op dit moment niet “letterlijk gevaarlijk” als het gaat om gevaarlijke informatie verstrekken, maar dat kan in de nabije toekomst veranderen. Eerder deze week liet Cisco weten dat DeepSeek schadelijke informatie vrijgeeft over cybercriminaliteit en andere illegale activiteiten: al is dat niet anders dan Meta’s Llama-taalmodel en OpenAI’s GPT-4o.

Lees meer over DeepSeek en abonneer je op de Bright-nieuwsbrief.