En ledsen AI

Nyheten om hur språkmodellen LaMDA uttrycker rädsla för att bli avstängd har blivit viral. En Google-anställd beskriver AI:n som en “7- eller 8-åring som råkar kunna fysik”. Kan datorer nu beskrivas som att de har ett medvetande och då i förlängningen förtjäna någon sorts rättigheter? Digiteket följer upp artikeln En arg, arg AI och reder ut begreppen.

Nyligen publicerade Digiteket en artikel om en arg, arg AI. I denna förklarade vi tekniken bakom avancerade språkmodeller och varför Metas (Facebooks) nya, mest sofistikerade språkmodell har uppfostrats till att bli fördomsfull och aggressiv genom att tränas på språkbruket från användarna på forumet Reddit.

Kort efter det kom nyheten om en ny språkmodell: LaMDA (Language Model for Dialogue Applications). Google meddelade att de stängt av en av sina anställda, teknikern Blake Lemoine, för att ha läckt företagshemligheter. Dessa handlade om chattloggar där han och LaMDA diskuterar diverse existentiella frågor, bland annat rörande självmedvetande och rätten till självbestämmande. Lemoine har sedan propagerat, både internt på Google och externt på sin blogg, för att LaMDA ska ses som en tänkande varelse och som sådan ges vissa rättigheter. Den bör till exempel bli tillfrågad innan den utsätts för experiment.

Google hävdar att de noggrant studerat Lemoines påstående och att inga andra experter upptäckt några hållbara bevis för att systemet är självmedvetet eller intelligent. De pekar även på det problematiska med att på detta sätt antropomorfisera språkmodeller eller maskiner. Bara för att något ges egenskaper som upplevs som mänskliga är de inte mänskliga.

Twitter

By loading the tweet, you agree to Twitter’s privacy policy.
Learn more

Load tweet

Nyheten, som man bland annat kan läsa om på Aftonbladet och Svenska Dagbladet, sätter återigen fokus på att vi närmar oss en fas i teknikutvecklingen där vi som människor snart inte förmår skilja på intelligens och imitation av intelligens – och inte ser vilka effekter det kan ha på vårt framtida samhälle.

LaMDA

Vad är då LaMDA? Det är Googles mest avancerade språkmodell, som lik Metas OPT-175B som Digiteket skrev om i förra artikeln, bygger på maskininlärning med simulerade neurologiska nätverk. I korthet: en maskin byggs upp för att med hjälp av miljoner lager simulera hjärnans synapser. Denna maskin övar sig sedan till bättre skicklighet och träffsäkerhet genom trial and error. I varje iteration får den återkoppling från ett facit i hur väl den lyckades och kan på basis av det justera sig för att lyckas bättre i nästa försök. Facit kan i en språkmodells fall vara all form av text: böcker, tidningar, chattar et cetera.

I LaMDA:s fall handlar försöken om att föra en konversation, och för att bli bra på det jämför den sig med facit i form av miljardtals meningar från faktiska samtal. Steg för steg “lär sig” sedan språkmodellen att prata om vad som helst. Utvecklingen kräver enorm processorkraft och tillgång till otroliga mängder språk. Det är ingen slump att det är företag som Alphabet Inc (Google) och Meta (Facebook) som ligger i framkant i utvecklingen, då båda dessa företag i sin kärnverksamhet sysslar med data-gruvdrift. Deras tjänster är gratis, men en av sakerna vi betalar med är kunskapen om oss, vilka vi är och – i detta fall – hur vi skriver och pratar.

Är LaMDA och andra språkmodeller medvetna?

LaMDA är varken medveten eller intelligent. Det är en språkmodell som är väldigt, väldigt bra på att föra en konversation och verka mänsklig, vettig och rimlig oavsett vad du vill prata om. Den är helt enkelt väldigt bra på att simulera att vara intelligent – men den kan inte tänka. Att kunna föra en konversation är inte samma sak som att ha intelligens för att problemlösa nya situationer som uppstår. Problemet med LaMDA är alltså inte att vi utför experiment på en stackars tänkande AI. I nuläget handlar det snarare om att vi människor börjar få problem med att se skillnad på vad som är vad.

Turingtestet

Traditionellt sett har vi pratat om Turingtestet (döpt efter matematikern Alan Turing som ledde arbetet med att knäcka nazisternas Enigmakod) som ett sätt att avgöra om en maskin är intelligent eller inte. I testet sätts tre datorer upp i olika avgränsade rum. Vid en dator sitter testaren, vid en annan dator sitter personen som ska testas och den tredje datorn är en AI. Testaren för sedan en chattkonversation med de två övriga på vilket sätt den vill. När testet avslutats får testpersonen uttala sig och försöka avgöra vilken av de två övriga i samtalet som var en dator. Testet upprepas multipla gånger med olika testpersoner. Om AI:n i slutändan lyckas lura testpersonen att den är människa 50 procent av gångerna eller fler så sägs den ha klarat Turingtestet.

I fallet med LaMDA och OPT-175B närmar vi oss därför nu en punkt där vi kan säga att det finns AI som kan klara Turingtestet. Betyder det att de då bör anses vara intelligenta? Som nämnts ovan är det en förhastad slutsats. Snarare bör vi lägga mer energi på att skilja på vad som är faktiskt medvetande och tänkande, och vad som bara är en imitation av detta.

Hammare med påklistrade ögon

Om plastögon på en hammare kan få dig att känna något för ett objekt – vad skulle då hända om den dessutom kunde föra en rimlig konversation med dig, och den sa att hamrande med den gjorde att den fick ont i huvudet? Foto: Lenore Edman på Flickr

Antropomorfisering

Parallellt med diskussionen kring hur vi avgör om en maskin har ett medvetande eller inte pågår en ökad antropomorfisering av AI, datorer och datordrivna system. Lite krasst kan man säga att det i slutändan inte spelar någon roll om en AI har ett eget medvetande eller inte. Om människor tror att det är så och ändrar sitt beteende på grund av sin uppfattning är det viktigare. Läs exempelvis Anil Ozturks uppsats kring hur ökad identifiering med maskiner och robotar potentiellt skulle kunna påverka samhället och lagstiftningen – helt oavsett deras eventuella intelligens.

Vi människor är snabba med att tillskriva djur, fiktiva karaktärer, maskiner eller rena föremål mänskliga egenskaper. Det är kanske ett större framtida problem än filosofiska gränser kring när en maskin kan anses vara medveten.