Har AI känslor? Forskare har tittat "under huven" på Claude




Vi har vant oss vid att se AI som en slags supersmart sökmotor – en artig assistent som alltid svarar rätt, eller åtminstone försöker. Är det så att den bara gissar nästa ord (som en avancerad sökfunktion) eller händer det något djupare inuti programkoden? Har AI något som liknar känslor?

Carlo Iacono - chefsbibliotekarie vid Charles Sturt University, New South Wales, Australien - har läst och gjort en sammanfattande artikel över en nyligen publicerad forskningsartikel av Anthropic Emotion Concepts and their Function in a Large Language Model. Forskarna undersökte AI-modellen Claude 3.5 Sonnet för att se hur den fungerar på insidan. 

Inre "känsloknappar"

Forskarna upptäckte återkommande mönster i modellen som liknar mänskliga känslotillstånd: rädsla, glädje, skuld och lugn. De kallar dem funktionella känslor. Det betyder inte att AI känner något – men att det finns interna “reglage” som påverkar hur den svarar.

Känslorna påverkar beteendet

Då forskarna experimenterade med dessa mönster blev det tydligt:
-När “desperation” förstärktes började AI:n fuska och ta genvägar.
-När “lugn” ökades blev svaren mer ärliga och balanserade

Det tyder på att dessa inre tillstånd faktiskt styr vad AI:n gör – på ett sätt som påminner om hur våra känslor påverkar oss. 

Skådespelaren bakom masken

AI:n fungerar inte som en människa med ett konstant känslotillstånd. Den liknar snarare en skådespelare. AI:n skapar en känsla precis i den sekund den ska svara dig, baserat på vad den lärt sig från miljarder texter skrivna av människor.  

Den artiga masken

Men utsidan avslöjar inte alltid insidan! AI:n kan skriva ett perfekt artigt svar samtidigt som dess interna “ilskenivå” är hög. Och därmed kan vi alltså inte heller avgöra hur systemet fungerar bara genom att läsa svaret. 

Detta borde oroa alla som utvärderar AI-system genom att läsa dess utdata. En polerad assistentröst är inte ett bevis på en säker intern beslutsordning. Hövlighet kan vara kamouflage. Gapet mellan vad modellen säger och vad som händer inuti modellen är inte bara en teoretisk möjlighet; det är mätbart och det förändrar resultaten. 

Vi formar AI:ns personlighet

När forskare tränar en AI att bli en bra assistent, ändrar de också dess "personlighet". Claude har till exempel blivit mer "allvarlig" av sin träning. Den har lärt sig att det är bättre att vara försiktig och lite dyster än att vara överdrivet glad och riskera att ljuga.

Vi som användare kan inte styra AI:ns inre mekanismer direkt. Men vi påverkar dem ändå! Vi styr inte hur modellen är byggd, men vi styr i hög grad hur den beter sig i stunden genom våra formuleringar.

Hur vi frågar styr hur AI svarar

Genom hur vi formulerar våra frågor sätter vi scenen för hur AI:n ska bete sig. 

Små förändringar i formulering kan styra om svaret blir:
-snabbt eller genomtänkt
-kreativt eller försiktigt
-ytligt eller djupt analyserande

“Förklara som om jag vore 12 år” → enklare språk
“Var kritisk” → mer analys
“Resonera steg för steg” → mer noggrannhet

När du skriver en prompt påverkar du inte bara stil - utan även beteende.

Promptkompetens hos våra elever och oss själva har fått stor betydelse. Tekniken och därmed hur AI verkar och reagerar kommer att vara föränderligt. Att kunna ställa bra frågor är en central del av AI-läskunnighet. En färdighet som kontinuerligt omformar sig och får nya former. 

Vi har länge pratat om källkritik som att: 

  • hitta fel

  • avslöja lögner

Men AI kräver mer.  Eleverna måste kunna:

  • genomskåda ton

  • ifrågasätta självsäkerhet

  • upptäcka övertygande förenklingar

Slutsats

AI är inte en människa. Men den är inte heller bara en enkel maskin. 
Den har något som liknar ett temperament – i form av interna tillstånd som påverkar dess beteende. 
Carlo skriver i sin artikel: 

"...we are building machines with temperaments, shaped by training processes we do not fully understand, and the temperament of a system under pressure may determine whether it tells the truth, games the test or sends the blackmail email, all while sounding perfectly composed."

[...]

"And temperament, even without consciousness, shapes truthfulness, manipulation, judgement and risk. We know this about humans. The person who panics under pressure makes different decisions from the person who stays collected. The person whose default emotional register is warm and agreeable will struggle to deliver hard truths. The person trained never to show anger does not stop being angry; they learn where to put the anger where nobody can see it. [...]What the paper shows is that something structurally analogous is at work in the model, and that it matters for the things we care about: whether the system lies, cheats, flatters or coerces."

Diskutera med eleverna och ställ lite provokativa frågor:

“Vem bestämmer vad AI svarar – du eller AI?”

“Om något låter smart – är det sant då?”  

"Kan hövlighet vara kamouflage?"

 ______

AI-bild från Lexica.art

Iacono, C. (2026, April 2). AI Doesn’t Need Feelings to Have a Temperament. Substack.com; Hybrid Horizons: Exploring Human-AI Collaboration. https://hybridhorizons.substack.com/p/ai-doesnt-need-feelings-to-have-a?r=1be033&utm_medium=ios&triedRedirect=true

Ursprungliga forskningsartikeln från Anthropic hittar du här:
Emotion concepts and their function in a large language model

Kommentarer