
MIK-utsikten: Hur kan man navigera i det sociala medier-kaoset som följer på terror och krig?
I denna MIK-utsikt tar jag upp några aspekter på problem i vår digitala informationsvärld i anslutning till de förfärliga händelserna i Israel/Gaza. Sedan följer en rad nya iakttagelser från AI-fronten, samt en liten koll på vaccinmotståndare som sprider konstigheter om WHO.
Att navigera digitalt i krigets dimmor, än en gång
Hamas terrordåd i Israel, och den efterföljande utvecklingen, har medfört ännu en våg av kaos i vår digitala informationsvärld. Ilska och frustration har lett till att en global flod av hatiska inlägg, och mängder av väldigt olämpligt innehåll (inte sällan terrorism-propaganda), felaktigheter, rykten, ren desinformation och propaganda av alla möjliga slag, har fått stor spridning. Det här är en situation som oseriösa aktörer utnyttjar på olika vis.
Läget blev snabbt så allvarligt att EU gick ut och varnade först X/Twitter och därefter Meta, och uppmanade dem att omedelbart vidta åtgärder mot de mer toxiska av de här typerna av innehåll, i enlighet med EU:s nya Digital Services Act (DSA).
Hur ska den enskilda mediekonsumenten agera för att undvika eller identifiera desinformation och felaktigheter i den här situationen? De grundläggande principerna är dem som vi återkommande tar upp här på Digiteket – att prioritera seriösa nyhetskällor, och att vara allmänt försiktig kring påståenden och digitalt innehåll på sociala medier. Tekniker som lateral läsning och omvänd bildsökning kan man nog inte tjata för mycket om. Amerikanska Poynter kom snabbt ut med en enklare guide med den här typen av råd: How to avoid misinformation about the war in Gaza.
Jag brukar också lyfta fram möjligheten att, när det handlar om internationella ämnen, söka efter befintliga faktagranskningar. För det kommer nu en strid ström av granskningar av olika relaterade påståenden, bilder och liknande, från granskare världen över. Enklaste sättet att göra en sådan sökning är att prova med några nyckelord på engelska för det man undrar över och i Google tillfoga orden ”fact check”. Google brukar lyfta upp de seriösa faktagranskarna i sökresultaten. Men det är ändå viktigt att kontrollera att det är sådana man får fram, det bästa är ifall det är välrenommerade nyhetsmedier, och/eller ifall den webbsida man finner ingår i faktagranskarnätverket IFCN. Man kan också gå direkt till Googles särskilda funktion för sökningar efter faktagranskningar, Fact Check Explorer. Många faktagranskare är transparenta med sitt arbetssätt och deras granskningar kan därför vara lärorika även utifrån det perspektivet. Granskargruppen Bellingcat gör ofta ingående open source-undersökningar, nu även i anslutning till utvecklingen i Israel och Gaza, och där kan man samtidigt med granskningarna få tips på lite mer avancerade tillvägagångssätt. Här är ett pedagogiskt exempel från 11 oktober.
En del medieanvändare vill ha journalistisk rapportering och initierade kommentarer snabbt, och just brådskan kombinerad med svårigheten att identifiera kompetens och tillförlitlighet kan vara ett problem i sådana här sammanhang. Ett knep kan vara att utnyttja väl kuraterade så kallade listor på X, före detta Twitter. Det finns mycket att säga om X av idag, men listfunktionen och att så många journalister och experter är där kan man fortfarande utnyttja. Poynter-artikeln ovan tipsar om en lista skapad av journalisten och experten David Clinch.
Dagarna efter Hamas terrordåd fick deras egna bilder och videor stor spridning på olika sociala medier-plattformar. Inte minst delade många innehållet för att markera sitt avståndstagande. Men oavsett ens egen intention är sådana här bilder och videor väldigt olämpliga, och förmodligen även olagliga, att sprida. Det handlar om terrorismpropaganda och risken är stor att man går avsändarens ärenden (Hamas använder detta innehåll för att öka hat, rädsla och motsättningar på alla sidor.) Dessutom handlar detta om klassiska medieetiska förhållningssätt, man ska helt enkelt inte publicera bilder på extremt utsatta eller döda människor. Det handlar om mänsklig värdighet, om de anhöriga, och om att det är extremt innehåll som kan nå barn och andra som inte bör eller vill möta det. Mårten Schultz, professor i civilrätt, kommenterade de juridiska aspekterna på spridning av sådant här innehåll i en artikel i Svenska Dagbladet.
En del människor måste ändå titta på extremt våldsamt innehåll, vanligen i sin yrkesverksamhet. Detta kan medföra olika typer av svåra psykiska påfrestningar, vilket drabbar inte minst många journalister, granskare, poliser, innehållsmoderatorer, människorättsaktivister, extremismforskare med flera. Det finns guider om hur man kan minska den psykiska påfrestningen. En kortare sådan guide publicerades nyligen av granskningsgruppen Bellingcat, och en längre, ämnad specifikt för journalister, publicerades 2017 av First Draft.
Shayan Sardarizadeh arbetar med att granska desinformation, extremism och konspirationsteorier för BBC (Monitoring disinformation, en del av BBC Verify). Om man använder X, före detta Twitter, så rekommenderar jag att man följer honom. Han lägger ut många snabbgranskningar där, ofta ett flertal dagligen. Vanligen handlar det om missvisande bilder och videor, som givits felaktig kontext i inlägg på sociala medier.

Sedan Hamas attack har han haft fullt upp med att granska floden av inlägg om händelserna i Israel och Gaza. I den här intervjun för Reuters Institute berättar han om hur han i regel går till väga, en inblick i en så kallad faktagranskares vardag. Och det han såg de första dagarna, i synnerhet just på X, var det värsta han sett när det kommer till missinformation. Problemet har förvärrats av oseriösa ”verifierade” konton, de med den blå bocken. Men han tycker också att förändringarna som snabbt gjordes med X så kallade Community Notes (en grupp användare som gemensamt faktagranskar) faktiskt förbättrat situationen.
Vaccinmotstånd och WHO
Det finns en internationell rörelse med vaccinmotståndare som även märks på sociala medier, i alternativmedier med mera i Sverige. De driver regelbundet kampanjer, och i dessa tenderar det att spridas stora mängder miss- och desinformation. På sistone har en måltavla varit världshälsoorganisationen WHO och det nya internationella pandemiavtal som håller på att förhandlas fram. Jag använde detta nyligen som en utgångspunkt, eller fallstudie, för en artikel i Magasinet Konkret där jag tittade närmare på några avgörande aktörer eller influerare i den här rörelsen, på några av de påståenden som sprids och inte minst i vilka nätverk (och alternativmedier) denna spridning sker. I slutet av september höll man inom de här nätverken manifestationer och konferenser i Stockholm, och en riksdagsledamot lyckades få till ett seminarium på temat i riksdagshuset, vilket Expo senare skrev om.
Några nya nedslag i AI-floden
Googles SGE
Google bygger nu (liksom Bing) alltmer in element av generativ AI i sin experimentella sökmotor Search Generative Experience (SGE). Dessa nyheter lär så småningom rullas ut även i den vanliga sökmotorn och kommer nog att innebära stora förändringar för användare som söker information online. Dels har man sedan ett tag en AI-chatt som i en panel vid sidan av sökresultaten kan sammanfatta artiklar man får upp i sina sökresultat, lägga in förklarande grafik, svara på frågor med mera. Dels har man nu lagt in en AI-bildgenerator som kan skapa bilder utifrån instruktioner, ”promptar”, i text. En målsättning hos de här sökplattformarna, inte minst med AI-chattlösningen, är säkerligen att de vill behålla användare på plattformen så länge som möjligt, istället för att de klickar sig vidare med de länkar som kommer upp i sökresultaten.
Detta kan få en rad såväl positiva som negativa konsekvenser. Man kan exempelvis tänka sig att de svar man kommer att få har relativt högt informationsvärde, beroende på hur Google med flera valt att sortera sökträffar och ingångsdata. Jag är relativt optimistisk vad gäller kvaliteten på sådana här AI-chattars svar, men det finns ändå återkommande problem med allt från rena felaktigheter till olika typer av bias, anmärkningsvärt generiska svar med mera. Spännande, och kanske också oroväckande, är den direkta kopplingen mellan sökning och möjligheten att skapa bilder. Det kommer förmodligen att spä på den ”explosion” av bildinnehåll som vi redan genomgår. En mindre trevlig vision är exempelvis att mängder av användare, av okunskap eller med mindre nobla intentioner, använder dessa funktioner för att skapa rent felaktig ”informationsgrafik”.
Men ändringarna kommer förmodligen också att innebära ett visst motstånd för användaren att klicka sig vidare för att få fördjupad kontext. Användare kommer att få färre direkta möten med de olika medier de nu indirekt får information från. Och för de publicister som vill ha klick, besökare och så vidare på sina webbsidor kan det komma att innebära en oönskad nedgång i trafik. En del är beroende av intäkter från annonser utifrån besöken på sidorna, och de som är prenumerationsbaserade kan också hamna i kläm helt enkelt eftersom färre landar på deras sidor.
Consensus + ChatGPT
En spännande AI-resurs som jag tog upp i våras är Consensus, en AI-chatt som presenterar valfritt forskningsläge med de högst rankade relevanta studierna och en bedömning av ifall det är ett tydligt eller mindre tydligt forskningsläge. En fin resurs för icke-experten att orientera sig i vetenskapliga ämnen. Nu finns den även som en plugin till ChatGPT, som ju i sig hittills inte varit särskilt tillförlitlig när det handlar om exempelvis vetenskapliga referenser. Men med den här kombinationen kan en normalanvändare nog komma långt både vad gäller att själv få ett grepp om ett obekant forskningsämne, och i att skriva om det. Samtidigt är det en typ av AI-tjänst som nog behöver bevakas löpande av experter inom olika fält. Det är svårt att veta hur tillförlitlig den är (även om jag själv fått ett gott intryck). Om sådana här funktioner lyckas vara kvalitativa och får utbredd användning kan de förmodligen bidra till en stärkt vetenskaplig kunnighet eftersom de visar på att forskningslägen kan vara komplexa och inbegriper sammanvägda bedömningar av – för lekmannen svårbedömda – studier som kan peka i litet olika riktningar.
Prompt-hjälp från ChatGPT
Att få generativ AI att skapa just den text eller i synnerhet den bild man vill ha, har varit en konst i sig. Att ge rätt instruktioner, så kallade prompts, har i regel förutsatt en hel del egen träning för att lära känna hur exempelvis en AI-bildgenerator reagerar på olika formuleringar. Jag har själv en tid funderat över ifall detta skulle bli en frågeställning för MIK-ämnet, och förmågan att ”prompta” har omvandlats i en ny yrkeskår, prompt-ingenjörer. Men utvecklingen går fort, och nu börjar det komma en egentligen rätt självklar lösning på problemet: låt en chattbot ”översätta” användarens mer intuitiva beskrivningar till ”prompt-språk”. Tidigt ute var DALL-E, som med sin nya version 3 integrerats med ChatGPT, och samma slags funktion ska framöver byggas in i olika bildprogram, exempelvis i Windows. Det kommer att innebära att man inte behöver lära känna sådana här generatorers egenarter på samma vis som tidigare. Det medför säkerligen också att nätet kommer att flöda över ännu mer av mer eller mindre fascinerande AI-genererade bilder med anmärkningsvärd bildkvalitet. Alla och envar kommer att kunna skapa anmärkningsvärda konstverk, bilder, fejk-fotografier och så vidare med några enkla raders text (eller tal). Det är fantastiskt, men också hisnande. Vårt digitala informationslandskap kommer att bli ännu mer komplext att navigera i, och det finns ju stora risker att dessa möjligheter kommer att missbrukas på en mängd vis.

AI lugnar ned heta politiska samtal
Kan AI hjälpa människor att diskutera politik lugnt och sansat på sociala medier? Det har kommit en spännande ny studie som visar att detta nog faktiskt är möjligt. Man har utvecklat en liten AI-assistent som i realtid kommer med olika tips när man skriver sina kommentarer, tips som bygger på principer om förståelse och demokratisk ömsesidighet. Och när man testat den (på den i USA så heta vapenfrågan) så verkar det faktiskt fungera. Samtalen blev betydligt lugnare, man lyssnade mer på varandra, och samtidigt påverkade inte interventionen människors åsikter i grunden.
En sammanfattande X-tråd från en av författarna:
Handbok om journalistisk AI-rapportering
Unesco kom nyligen med en intressant handbok om hur journalistik bör och inte bör rapportera om AI. I slutet av handboken finns för övrigt en kul liten genomgång av vanliga fällor som en hel del journalister tenderar att fastna i. Listan är matnyttig läsning även för vanliga mediekonsumenter och kan hjälpa till att skärpa det källkritiska ögat även mer allmänt. Jag lägger in rubrikerna på de olika ”fällorna” nedan. Handboken heter Reporting on artificial intelligence: a handbook for journalism educators och finns i fulltext hos Unesco.
Hejdå, dålig forskning?
Förvisso ett ämne lite vid sidan av MIK-ämnet, men förmodligen ändå intressant för många som arbetar med MIK-frågor. Den stora förekomsten av mindre bra vetenskapliga studier (och vetenskapliga tidskrifter) är ett stort problem, som belysts inte minst under covid-pandemin, då ett stort antal dåliga vetenskapliga artiklar (om till exempel olika ”mirakelmediciner” som ivermektin) fick stor spridning och skapade förvirring. Ett av problemen är att granskningen, peer review, ibland fallerar, ibland inte ens finns, och högkvalitativ peer review blir också allt svårare att få loss resurser till.
Enligt en ny studie (än så länge preprint) kan AI komma till hjälp. Man har jämfört mänsklig och GPT-4:s peer review av bland annat några tusen Nature-artiklar, och GPT-4 verkar vara till stor hjälp, och dess ”synpunkter” uppskattas av många av forskarna/artikelförfattarna. Det behövs väl ytterligare undersökningar men mycket tyder på att granskningsprocessen kan effektiviseras betydligt på detta vis och kvaliteten på många studier lyftas. Dessutom kan den mänskliga granskningen komma in senare i processen. Artikelförfattare och redaktion skulle kunna låta göra en AI-granskning tidigt för att fånga olika problem, och korrigera/förbättra innan den mänskliga granskningen slutligen träder in och kan fokusera på det mänskliga granskare är bäst på.
Forskarna Jay Van Bavel och Ethan Mollick kommenterar studien:
AI och klimatkommunikation
Klimatkommunikation är ett ämne som blivit allt viktigare. Hur ska man kommunicera ny (och även tidigare etablerad) kunskap om klimatforskningen och om olika möjliga åtgärder, till allmänheten? Exempelvis kan det vara av vikt att anpassa tonalitet och vilka infallsvinklar man betonar efter olika målgrupper, inte minst är detta viktigt gentemot grupper där en skeptisk attityd till klimatfrågorna är vanlig. Utmaningen liknar den för exempelvis vaccinkommunikation. Det har nu kommit en intressant studie (preprint) om hur bra de nyare omtalade AI-språkmodellerna är på vetenskaps- och klimatkommunikation. Det handlar bland annat om hur tillförlitliga de är gällande sakpåståenden, om tydlighet, om tonalitet och om att pedagogiskt förmedla osäkerheter. I studien utvecklas en metod för att utvärdera detta och när man sedan testat så ser chattbotarnas prestationer rätt bra ut, men det finns än så länge också vissa problem. Förhoppningen är att man med denna typ av studier ska kunna förbättra språkmodellerna så att de nya AI-chattbotarna svarar på bästa vis när användare ställer frågor till dem. Och förmodligen kommer de också att kunna användas som verktyg i klimatkommunikation av professionella aktörer, men också för vetenskaps-/forskningskommunikation mer allmänt. Och de här chattbotarna kommer vi att möta mer och mer framöver, i alla möjliga digitala miljöer.
En av författarna beskriver studien:
Freedom on the Net 2023
Freedom House har kommit med sin årliga rapport Freedom on the Net. Den brukar inte vara någon upplyftande läsning, och det är den inte i år heller. Enligt deras sätt att mäta så är det 13:e året i rad som den globala internetfriheten minskar. Antalet länder där regeringar och makthavare använder manipulation för att påverka diskussioner online ökar, och AI-baserade verktyg blir nu allt vanligare i detta, med AI-genererad text, ljud och bild. Den digitala censuren tilltar, och i rapporten betonas att man nog varit naiv när man lagt så stora förhoppningar på till exempel sociala medier-bolagens självreglering.
Med allt kraftfullare (och billigare) AI kommer denna teknologi säkerligen framöver att användas alltmer för digital repression, censur, övervakning, och för att skapa och sprida desinformation.
Rapporten har en rad rekommendationer rörande sådant som yttrande- och informationsfrihet, integritet och ett fritt öppet internet.
Chattbotar sprider felaktigheter under val
AlgorithmWatch och AI Forensics har testat Bing Chat i samband med valen nyligen i Bayern, Hessen och Schweiz, och felaktigheterna blev förfärande många. Slutsatsen blir att sådana här AI-chattbotar än så länge är långt ifrån tillförlitliga och kan bli djupt problematiska i samband med politiska val.
Mathias Cederholm
Mathias är utbildare och researcher i MIK och digital källkritik vid Alle fonti HB. Han är bland annat även gästlärare vid Lunds universitet och administratör för Facebookgruppen ”Källkritik, fake news och faktagranskning”.

Upphovsrätt och licens för innehåll på aktuell sida
Observera att innehållet (texten, bilder, video och så vidare) på sidan kan vara licensierad i enlighet med olika licenser.
Texten på denna sida är licensierat enligt Creative Commons Erkännande 4.0 Internationell (CC BY 4.0).
Detta innebär att du:
- får kopiera och dela vidare materialet i vilket medium eller format som helst
- får remixa, återanvända och bygga på materialet
- får använda det i kommersiella syfte och sammanhang
- inte behöver fråga om lov.
Om du bearbetar, delar eller använder texten:
- Ge ett korrekt Erkännande
- ange verkets namn,
- ange vem som skapat verket,
- ange länk till verkets ursprungsplats,
- ange länk till upphovspersonens webbsida (frivilligt, men trevligt),
- ange vilka delar som eventuellt är bearbetade
- länka till licensen.
Ett korrekt erkännande skulle kunna se ut så här:
Allt du skulle vilja veta om Creative Commons, men varit för skraj att fråga om, av Ola Nilsson. Texten är licensierad med Creative Commons Erkännande 4.0 Internationell (CC BY 4.0).
