Gå direkt till kursmenyn Gå direkt till innehållet

Så fungerar NotebookLM rent tekniskt

NotebookLM fungerar inte helt olikt många andra AI-tjänster, med några viktiga undantag. 

Tjänsten använder sig av Googles AI-modell som heter Gemini. Den här modellen har tränats på massiva dataset som innehåller text från webbplatser, böcker, akademiska artiklar och andra offentligt tillgängliga källor. Det gör att den kan förstå kontexten i dina frågor och generera svar på dina frågor som gör att det ser ut som att ni har ett naturligt samtal. Men NotebookLM kommer som tidigare nämnts att hålla sig väldigt strikt till dina uppladdade källor, och det beror på modellens underliggande arkitektur som använder ”Retrieval-Augmented Generation” (RAG). 

RAG är en metod som kombinerar språkmodellers kapacitet med specifika datakällor för att förbättra svarens relevans och precision. Till skillnad från en ”vanlig” LLM (Large Language Model) som förlitar sig enbart på information den har tränats på, söker RAG-modellen aktivt efter relevanta data från andra källor än sin egen träningsdata, som exempelvis de dokument du laddar upp i NotebookLM. När du ställer en fråga används först en sökalgoritm för att hitta de mest relevanta textdelarna från dina dokument. Dessa används sedan som input till språkmodellen när den ska generera sitt svar, vilket gör att svaret inte bara baseras på tidigare tränad data utan också på den specifika information som finns i dina uppladdade filer.

En språkmodell som bygger på RAG är exempelvis bättre på att berätta för användare om att information som de ber om inte finns tillgänglig i de tillgängliga källorna. Trots att informationen kanske finns i modellens träningsdata. 

Okej tänker ni, det låter ju jättebra allt det där, men i förra avsnittet nämnde du ju att man kan hålla på och trixa in drakar i bibliotekets stängningsrutiner. Hur pålitliga blir egentligen de här svaren? 

Lugn bara lugn, det tittar vi på i nästa avsnitt.