Gå direkt till innehållet

MIK-utsikten: Boken Foolproof, nytt om konspirationsteorier och lite om AI-hjälp

Denna instans av MIK-utsikten lyfter nya boken Foolproof, som är oundgänglig ifall man är intresserad av frågan varför människor faller för missinformation och vad man kan göra åt det. Dessutom uppmärksammas en ny metastudie om hur man kan hjälpa människor att undvika falla för konspirationsteorier, samt en del exempel på intressanta nya MIK-relaterade hjälpmedel i den snabbt växande AI-djungeln och arbetet med en AI-lag i EU.

Sander van der Lindens bok Foolproof: Why Misinformation Infects Our Minds and How to Build Immunity

För dem som är intresserade av problem kring missinformation, varför vi faller för ”fake news” och olika sätt att försöka hjälpa oss att undvika detta, så kan man nog redan säga att årets bok har kommit. Psykologen Sander van der Lindens bok Foolproof: Why Misinformation Infects Our Minds and How to Build Immunity kom ut i början av våren och har väckt mycket uppmärksamhet. Linden har intervjuats i en rad tidningar och poddar senaste tiden, och boken är allmänt hyllad av psykologer, informationsforskare och andra. Den ger en gedigen översikt av kunskapsläget kring samspelet mellan tvivelaktig information och mänsklig kognition/psykologi.

Förlagets sida med boken och Sander van der Lindens egna webbsida innehåller mer information om boken.

Linden tillhör de forskare som arbetat kring olika sätt att stödja människor i detta sammanhang, inte minst med det som kallas inokulering, dvs att med psykologiska ”vaccin” stärka människors motståndskraft mot desinformation, konspirationsteorier och liknande genom att förbereda dem på hur dessa kan se ut och visa på deras mekanismer. Detta kan göras med artiklar, informationsrutor, videor, spel, ja, på alla möjliga vis som även kan arbetas in i de plattformar där vi idag möter information. Spelet Bad News är ett exempel på inokulering som Linden varit med och utvecklat och som mötts av stort intresse även i Sverige, där ett forskarlag vid Uppsala universitet översatte det till svenska och har testat på ungdomar. 

Linden pekar bland mycket annat i boken på sex ständigt återkommande metoder för manipulation av människor, ”six degrees of manipulation”, som är bra att påminna sig om och vara beredd att identifiera i sina informationsflöden:

  • Emotion – att anspela på känslor
  • Impersonation – imitation (bedräglig, genom t ex fejkexperter eller ”astroturfing”-organisationer)
  • Polarization – polarisering, skapa splittring
  • Trolling – trollande
  • Conspiracy – konspiration(steorier)
  • Discrediting – misskreditera

Se en kortare artikel av Linden hans metoder för manipulation.

Vill man kan man läsa ett utdrag ur boken här

Exempel på intervjuer med Linden utifrån boken finner man här, här och här.

Vill man fördjupa sig i olika typer av åtgärder för att ge människor stöd i att navigera information och öka deras motståndskraft mot påverkan så är denna illustration en bra ingång till terminologin i detta fält. Den kommer från en tysk översikt om psykologiska interventioner mot desinformation, publicerad av Center für Monitoring, Analyse und Strategie (CeMAS).

Inforgrafik: Vid montakt med desinformation: Boosting, Inolulering, Indentitshantering, Nudging, faktagranskning.
Psykologiska interventioner mot desinformation. (c)

Konspirationsteorier och kritiskt tänkande – ny forskningsöversikt och nytt projekt

Hur hjälper man människor bort från tro på konspirationsteorier? Det har nu kommit en spännande studie som systematiskt går igenom forskningslitteraturen. Det är erkänt svårt att nå fram till många konspirationstroende, och enligt studien är det förebyggande arbetet det som fungerar bäst. Det mest effektiva motmedlet är att stödja människor i analytiskt och kritiskt tänkande och stärka deras vetenskapliga kunnighet och kännedom om kännetecken för pseudovetenskap. Samma forskarteam håller också på att utveckla ett videospel med syftet att uppmuntra kritiskt tänkande gentemot konspirationsteorier.

En intressant ny resurs som är relevant i detta sammanhang är projektet The Mental Immunity Project (MIP). Det drivs av en samling välkända forskare och pedagoger, däribland tidigare nämnda Foolproof-författaren Sander van der Linden. Pedagogiskt ansvarig är vetenskapspedagogen Melanie Trecek-King. Syftet är att samla och sprida goda exempel på metoder, verktyg och andra resurser för att stärka människors ”immunitet” mot manipulativ information. Kritiskt tänkande, vetenskaplig kunnighet och metakognition (ungefär att kunna reflektera över hur du tänker) är viktiga komponenter i projektet och i de medverkandes övriga verksamhet. Projektet har en nystartad webbsida, och där finns inte minst en fin lista med relaterade lästips och resurser som spel, videor, guider, andra sidor med resurssamlingar och så vidare. 

Källkritik och MIK i AI:ns tidevarv

Det går fort, och bland MIK-aktörer diskuteras AI väldigt mycket för närvarande. Vilka utmaningar innebär den pågående AI-utvecklingen för MIK-ämnena? Det vi kallar AI-kunnighet kommer förmodligen att behöva breddas och fördjupas och nya typer av lärresurser utvecklas.

Det lär dröja innan vi vet mer exakt vilka de avgörande utmaningarna blir för mediekonsumenter och medborgare, men News Literacy Project, NLP, har nu en resurssida med en hel del källkritiska tips, AI-granskningar och exempel från den pågående AI-debatten. Detta är ett uppskattat hjälpmedel för amerikanska lärare som även vi i Sverige kan dra nytta av. Artikellänkarna under rubriken ”Keeping up with the field” fylls nu på i rask takt.

Några trevliga AI-tips

Det som kallas för Generativ AI, det vill säga AI-baserade tjänster som kan användas för att skapa till exempel bilder och text,  har diskuterats otroligt mycket senaste månaderna. Entusiasm har varvats med oro och farhågor rörande vad vi har att vänta inte minst i form av bedräglig användning av AI-genererade bilder, texter, videor, för att luras, manipulera, påverka, sprida desinformation och så vidare

Just nu växer en djungel fram av nya AI-tjänster och det lär ta tid att navigera i det nya utbudet. Vill man få en liten inblick kan man titta på sidan There’s an AI for that, där några AI-entusiaster dagligen lägger upp nya AI-appar och liknande. I skrivande stund har de kommit upp i ca 3 700 stycken, som kan vara användbara för drygt 1 000 olika typer av uppgifter.

I den här djungeln finns naturligtvis en hel del intressanta MIK-relaterade möjligheter. Redan de olika stora sök- och chattfunktionerna som blivit så omdiskuterade må ha en del problem, men i många fall av informationssökning är de, rätt använda, faktiskt riktigt intressanta. Det har även kommit en del mer specialiserade AI-tjänster för olika typer av informationssökning, för sammanfattningar av vetenskapliga texter och liknande.

Consensus

Det finns sedan förra året en AI-resurs med namnet Consensus. Den svarar på frågor med vetenskaplig bäring och presenterar resultaten från de 5–10 högst rankade relevanta studierna. Den kan också, när det är möjligt, ”syntetisera” rönen till en konsensusuppfattning. Det är något som inte sällan är en utmaning för lekmannen. Att hitta relevant forskning, bedöma de enskilda bidragens kvalitet, läsa igenom och faktiskt förstå och få en överblick. Jag har testat appen på några ämnen jag själv har kännedom om, och jag tycker det i regel blev riktigt bra svar, inte minst att de flera gånger inkluderade adekvata förbehåll rörande brister i evidens/kunskapsläget. En sökning kan alltså även leda till inblickar i den vetenskapliga processen, och därmed i sig stödja vetenskaplig kunnighet, och svaren är lättlästa. Man kan nog räkna med att sådana här lösningar kommer att bli ännu bättre framöver.

Fact Check Assistant

Boten Fact Check Assistant har nämnts tidigare i MIK-utsikten. Det är en bot för faktagranskning av påståenden. Den har utvecklats av Social Media Lab och är baserad på GPT 4. I nuläget en prototyp som fungerar bäst på engelska och som utöver sina svar brukar tipsa om Googles fact check-databas Fact Check Explorer. Jag har testat boten på en rad typiska pandemitidspåståenden (konspirationsteorier, vaccinpåståenden med mera) och tycker den klarade dem bra.

Chattfönster med fråga om homeopati kan bota cancer och det nekande svaret.
Fact Check Assistant konstaterar att homeopati inte är ett botemedel mot cancer.

Aviv Ovadyas ”kontextualiseringssökmotor” på gång?

Det har visat sig att de nya AI-språkmodellerna och chattbotarna redan är förhållandevis bra på att faktagranska påståenden och bedöma trovärdighet hos olika medier, såväl på engelska som åtminstone en del mindre språk. I två nya studier har man testat ChatGPT på detta, med oväntat goda resultat, och det lär snart komma applikationer som är mer anpassade till den här typen av uppgifter, med ännu bättre resultat. Se här:

Large language models can rate news outlet credibility

Using ChatGPT to Fight Misinformation: ChatGPT Nails 72% of 12,000 Verified Claims

Teknikfilosofen Aviv Ovadya presenterade för ett par år sedan en vision om en ”kontextualiseringssökmotor” i form av en app som skulle kunna utföra några av de söksteg som kan behövas när man vill granska ett påstående man mött i sina informationsflöden. Det första är i regel en traditionell sökning som följs av så kallad lateral läsning, det vill säga kompletterande sökningar inte minst om de källor som dyker upp (där kan till exempel resurser som Wikipedia och olika mediebedömningstjänster som Newsguard och MediaBias/FactCheck vara bra tillgångar) samt relevanta faktagranskningsartiklar. Appen skulle också kunna varna för situationer med ”data void”, datahål, då oseriösa aktörer lätt dominerar sökträffarna. Den skulle också kunna skicka signaler till faktagranskare om sökningar som görs, som pekar på ett kunskapsbehov som inte finns täckt av befintliga nyhetsmedier och faktagranskningar. Under senare år har dessa heuristiska olika steg varit något som exempelvis jag själv rekommenderat att man bör träna sig i, som en del av modern medie- och informationskunnighet. Men jag tror att en dylik AI-lösning, som alltså kan göra mycket av det här arbetet åt en, inte är långt borta nu.

ProofMode

En uppenbart fejkad nyhetsbild skapad med en generativ AI.

En annan typ av hjälpmedel som förmodligen kommer att bli viktiga för oss i det allt mer kaotiska informationslandskapet är olika former av digital ”ursprungsmärkning”. Nyligen kom exempelvis Guardian Project tillsammans med Witness.org med ett verktyg som heter ProofMode, ett verktyg man kan ladda ner till sin mobil och som ”ursprungsmärker” bilder med metadata som sedan följer med när de skickas vidare och som kan undersökas av alla mottagare. Metoden påminner en hel del om CAI/C2PA (som Witness också arbetat med) men är lite enklare, med fokus på den enskilde användaren och dennes mobiltelefon. En presentation av ProofMode finner man här.

CAI/C2PA

Initiativen Content Authenticity Initiative (CAI) och Coalition for Content Provenance and Authenticity (C2PA) fortsätter samtidigt utvecklingen av sina standarder för digital ursprungsmärkning.

CAI får allt fler medlemmar, nyligen passerade man 1 000-strecket med teknik- och medieföretag, kameraproducenter, nyhetsmedier osv. Vi möter nog alla numera CAI-innehåll online, många utan att veta om det. Det vore ju bra ifall de stora sociala medie-plattformarna började titta på detta också.

Adobe har lanserat sin egen generativa AI-modell, Firefly, där CAIs digitala ”ursprungsmärkning” är inbyggd, dvs alla kan se genom ett enkelt klick att det genererade innehållet är AI-skapat, av vem osv. 

C2PA har uppdaterat sin standard så att den hinner upp AI-utvecklingen, och man kan nu använda C2PA för att bygga in transparens på olika vis i AI-skapat innehåll. Jag brukar säga att vi nog är på väg in i en tid där man helt enkelt får räkna med att allt innehåll man möter kan vara manipulerat, fejk och så vidare, eller som blir allt vanligare, AI-genererat. Det blir i längden orimligt att lägga verifieringsbördan på den enskilde mediekonsumenten. Vägen framåt är förmodligen istället att innehåll märks ut på ett transparent och lättbegripligt vis så att vi får reda på var det kommer ifrån, hur det eventuellt har ändrats/manipulerats osv. Innehåll som inte har sådan märkning kommer man helt enkelt att behöva förutsätta är otillförlitligt.

AI och bias

Ett mycket diskuterat problem med olika typer av AI är att det lätt slinker med olika typer av bias, fördomar, stereotyper, i systemen när de tränas på innehåll på nätet. Att visa på dessa risker kan vara en viktig pedagogisk insats framöver, och ett forskarteam har tagit fram några verktyg som lanserats för att folk själva ska kunna undersöka sådan bias, i de bildgenererande DALL-E 2 respektive två versioner av Stable Diffusion. I förlängningen är förhoppningen att inte minst AI-utvecklare blir mer medvetna om de här problemen. Projektet beskrivs här, och i artikeln finns länkar vidare till projektets sida och verktygen.

Intressant nog har forskare noterat att det verkar gå att minska inslagen av bias hos generativa AI-språkmodeller genom att helt enkelt instruera dem att göra det. Exakt hur det går till vet man inte, AI är ju i regel inte särskilt transparent, men det kan kanske ses som lovande inför framtiden.

EU-lag om AI

Debatten på sistone om AI har präglats av en hel del farhågor, vilket kan vara förståeligt. ”Det går för fort, något måste göras” har varit en återkommande ståndpunkt hos många. Är man intresserad av dessa frågor bör man följa den lagdiskussion som förs i EU kring just ett kommande lagförslag om AI. Ett första utkast börjar komma på plats och frågor kring generativ AI har nu snabbt arbetats in som en av tre olika nivåer. Att följa en sådan debatt ger många ingångar kring olika typer av problematik, och även kring svårigheter i anslutning till ambitionen att reglera sådana här områden. En liten översikt av lagförslagets status i april finner man här.

Puffbild: AI-genererade bilder av påven i Balenciaga jacka. Av Andrew Ciulu.

Faktaruta

Mathias är utbildare och researcher i MIK och digital källkritik vid Alle fonti HB. Han är bland annat även gästlärare vid Lunds universitet och administratör för Facebookgruppen ”Källkritik, fake news och faktagranskning”.

Mathias Cederholm

Kommentarer

Hjälpte detta dig?

Digiteket-redaktionen vill gärna veta mer om hur du har använt artikeln.


Fält markerade med * är obligatoriska. Redaktionen granskar kommentarer innan de publiceras. Din e-post kommer inte publiceras.