
Google ontwikkelt nieuwe methode die AI continu laat bijleren
Google-onderzoekers denken een doorbraak te hebben gevonden: een AI-architectuur die niet vastzit aan wat het ooit geleerd heeft via training, maar continu kan blijven bijleren terwijl je ermee werkt.
In een nieuwe publicatie beschrijven ze hoe hun eerdere concept, Titans, nu wordt gecombineerd met een nieuw raamwerk, MIRAS, waardoor een soort langetermijngeheugen ontstaat dat AI-modellen up-to-date kan houden zonder zware training te herhalen.
Huidige modellen
Dat is relevant, want huidige modellen, inclusief de grootste chatbots, weten alleen wat er in hun trainingsdata zat. Nieuwe informatie toevoegen kost nu enorm veel rekenkracht en tijd.
Hoe het werkt
De architectuur gebruikt een mix van bekende technieken, zoals recurrent neural networks en transformermodellen, en probeert het beste van beide werelden te combineren. Dat houdt in: snelheid en nauwkeurigheid. Daarbij kan de AI realtime informatie opnemen die gebruikers zelf inbrengen, bijvoorbeeld in een chat.
Volgens Google presteert Titans in tests niet alleen beter dan klassieke transformermodellen, maar zelfs beter dan recentere hybridesystemen zoals Mamba-2.
Meer lezen over AI? Download dan onze app!