Hur fungerar Perplexity?
Nu när du vet hur du använder tjänsten så kanske du funderar på hur allting faktiskt fungerar.
När vi ställer en fråga till Perplexity så tar den hjälp av andra språkmodeller, exempelvis Open AI:s ChatGPT och Anthropics Claude, för att förstå vad vi frågar efter. Dessa modeller är naturliga språkmodeller som kan hantera kontext och nyanser i frågan och ge ett svar som är relevant för användarens behov.
Efter att ha bearbetat frågan söker Perplexity igenom nätet efter information. Här används realtidssökning (så kallad RAG = Retrieval-Augmented Generation), vilket innebär att den letar efter färska källor, men kvaliteten på resultaten beror på vad som finns tillgängligt online vid just den tidpunkten. Därefter gör tjänsten en bedömning av vilka källor den anser vara relevanta och trovärdiga och vill använda sig av. Här är det också värt att notera att Perplexity bara kan söka på den öppna webben. Allt material som finns på webbsidor eller databaser som kräver inloggning är onåbara.
I nästa steg tar tjänsten återigen hjälp av andra språkmodeller för att formulera ett svar. Den matar då in informationen från sina utvalda källor i en generativ språkmodell som sammanställer information från källorna till ett kortfattat svar presenterat i ett artikelformat. Det här svaret skickas sen tillbaka till Perplexity och visas för användaren. Den här processen sparar tid för användaren, men eftersom många av de avvägningar vi måste göra när vi söker information har överlåtits till AI kan det innebära att detaljer ibland kan gå förlorade eller att svaren blir något ytliga. För den som söker djupare förståelse kan det krävas att man själv granskar de hänvisade källorna. Men kan vi verkligen lita på svaret vi får? Vi har väl allesammans hört att generativ AI kan hallucinera och hitta på svar. En diskussion om hur trovärdig Perplexity är hittar du i nästa lektion.