©Google

©Google

Google ontwikkelt nieuwe methode die AI continu laat bijleren

PRAAT MEE!

Google-onderzoekers denken een doorbraak te hebben gevonden: een AI-architectuur die niet vastzit aan wat het ooit geleerd heeft via training, maar continu kan blijven bijleren terwijl je ermee werkt. 

In een nieuwe publicatie beschrijven ze hoe hun eerdere concept, Titans, nu wordt gecombineerd met een nieuw raamwerk, MIRAS, waardoor een soort langetermijngeheugen ontstaat dat AI-modellen up-to-date kan houden zonder zware training te herhalen. 

Huidige modellen

Dat is relevant, want huidige modellen, inclusief de grootste chatbots, weten alleen wat er in hun trainingsdata zat. Nieuwe informatie toevoegen kost nu enorm veel rekenkracht en tijd.

Hoe het werkt

De architectuur gebruikt een mix van bekende technieken, zoals recurrent neural networks en transformer­modellen, en probeert het beste van beide werelden te combineren. Dat houdt in: snelheid en nauwkeurigheid. Daarbij kan de AI realtime informatie opnemen die gebruikers zelf inbrengen, bijvoorbeeld in een chat. 

Volgens Google presteert Titans in tests niet alleen beter dan klassieke transformer­modellen, maar zelfs beter dan recentere hybridesystemen zoals Mamba-2.

Meer lezen over AI? Download dan onze app!