Begränsningar och risker med NotebookLM
Den här tjänsten har fyra begränsningar, eller risker: begränsningar i användandet, risken för felaktiga svar, risken för missvisande svar samt risker för spridning av integritetsskyddsvärt material.
Begränsningar i användande
Tjänsten har länge varit helt gratis att använda. I skrivande stund har Google börjat sätta vissa begränsningar på gratisversionen av NotebookLM.
- Antal anteckningsböcker: max 100 st.
- Källor per anteckningsbok: upp till 50 dokument.
- Storlek per källa: dokument får innehålla upp till 500 000 ord.
- Dagliga chattfrågor: 50 interaktioner per dag.
- Ljudgenereringar: 3 ljudöversikter dagligen.
För den som har en plus-prenumeration på Gemini ingår ökat användande av NotebookLM. Gränsen är fortfarande hög så personligen skulle jag säga att gratisversionen räcker gott.
Risken för felaktiga svar
Risker med ”hallucinationer”, dvs. när modellen hittar på svar, är ett känt problem med generativa AI-modeller. Hallucinationer uppstår när modellen genererar information som verkar korrekt men som inte har stöd i de tillgängliga källorna.
Detta innebär att AI-modeller ibland kan hitta på statistik, referenser eller påståenden som inte finns i det uppladdade materialet eller ens existerar. Till exempel kan en AI-modell påstå att en rapport innehåller en specifik statistik som faktiskt inte finns där. Ett annat scenario kan vara att modellen skapar referenser eller citat som ser trovärdiga ut men som inte existerar.
Kan detta hända i NotebookLM?
Ja, det kan förekomma men det är sällsynt jämfört med “vanliga” generativa språkmodeller såsom ChatGPT. Orsaken till detta är RAG. Modellen kommer inte att återge information som inte existerar i källorna. Men det betyder inte att svaren alltid är korrekta – ibland kan felet ligga i bristfällig information i källorna.
Till exempel, om ett dokument innehåller tvetydiga formuleringar eller information som inte är explicit angiven, kan modellen ha svårt att ge ett korrekt svar. Ett annat exempel är om det finns inkonsekvenser i texten, såsom motstridiga fakta, där modellen kanske inte kan avgöra vilken information som är mest relevant eller korrekt. Dessutom, om en fråga inte har tillräcklig kontext, exempelvis ”Vad betyder detta?” utan en tydlig referens, kan det leda till svar som saknar precision. Om du får ett svar du inte är nöjd med, testa att omformulera dig och försök att vara mer specifik.
Risken för missvisande svar
Ett vanligare problem kan vara att svaret innehåller slutsatser eller sammanfattningar som är missvisande eller felaktiga eller missar viktiga detaljer. Om materialet i sig är otydligt, tvetydigt eller dåligt organiserat finns risken att när modellen försöker sammanfatta informationen så drar den felaktiga slutsatser om vilken information som är betydelsefull. Den enda boten här är tyvärr att försöka vara uppmärksam och att använda sig av välorganiserade källor som är tydligt formulerade.
Om du har problem med att de svar du får utelämnar viktig information, som du vet finns i källorna, kan ett problem vara att källorna du laddat upp är för långa. När du laddar upp dokument så kommer de att indexeras för framtida genomsökningar av relevant information. Tekniken som används för att göra detta tenderar att lägga mer fokus på information som finns i början av långa dokument. Ett långt dokument riskerar därför att bli ganska ”framtungt”.
Sen är det värt att också säga att om du försöker använda tjänsten till någonting den inte skapades för ökar risken för att du får dåliga eller felaktiga svar. Poängen med NotebookLM är inte att hjälpa dig att skriva texter, programmera, söka information eller komponera en haiku om Magdalena Ribbing.
GDPR och integritet
Som tidigare nämnts är det bra att Google inte sparar eller tränar sina språkmodeller på din uppladdade data. Men du ska ändå inte ladda upp källor eller skriva information som omfattas av GDPR eller som på annat vis är integritetskänslig. Helt enkelt av samma skäl som gäller för hela internet, du kan aldrig någonsin vara helt säker på att den informationen inte kan hackas och spridas.
Sammanfattningsvis, för att minimera problemen så kan du:
- kontrollera källhänvisningarna i svaren. Om modellen påstår något, se till att det stöds av de faktiska dokumenten du laddat upp genom att kontrollera fotnoten.
- ställa specifika och avgränsade frågor. Till exempel, istället för att fråga ”Vad säger dokumentet om miljöpåverkan?”, fråga ”Finns det några data om koldioxidutsläpp i detta dokument?”
- använda välstrukturerade källor.
- dela upp dina källor. Om du har längre texter kan du med fördel dela upp dem i flera mindre dokument som du laddar upp.
- se till att ha koll på vilka dokument som är okej att ladda upp enligt din kommuns regler. Det kan hända att vissa dokument är hemliga, sekretessbelagda, upphovsrättsskyddade eller täckta av avtal. Om du är osäker är det en bra idé att ta en pratstund med din kommunjurist eller någon annan som har koll på läget. På så sätt vet du säkert vilka filer du kan dela utan problem.
Låt oss nu ta och kika på hur du faktiskt kan använda det här verktyget på ditt bibliotek.