Vi lever i en tid med förhoppningen att AI ska göra jobbet åt oss, effektivisera vår vardag och frigöra tid.
Men en aktuell artikel av Kristofer Ahlström i Dagens Nyheter lyfter fram en utveckling som pekar åt motsatt håll! Ett fenomen som jag själv också upplever när jag jobbar med mina texter.
Istället för att
bli avlastade håller vi på att drabbas av fenomenet "workslop".
Ett begrepp som kommer från det engelska ordet för AI-skräp: slop. På
svenska kan ordet slop närmast översättas till diskvatten,
blask, slaskvatten. Det vill säga att AI
producerar snabbt och behändigt snygga resultat - men resultat som man antingen
själv, eller än värre någon kollega, sedan måste rätta till eller helt göras om.
I Ahlströms artikel menar Annika Waern, professor i människa–datorinteraktion vid
Uppsala universitet, att vi har överskattat AI:s förmåga att samarbeta
med oss. Hon beskriver ChatGPT och andra stora språkmodeller som en lat och
slarvig teknik - den slänger ur sig något som ser ut som ett svar, men
det är inte alltid särskilt genomtänkt. Vill man få bättre resultat får man
själv jobba lite: ställa frågan igen, dubbelkolla källorna och styra upp vad
den ska använda. Men tillägger hon:
"Men lite är det som att piska en lat häst."
Även Pontus Wärnestål, vicerektor på Högskolan i Halmstad
och biträdande professor i informationsteknologi, instämmer i att
workslop är ett jäsande problem. Och detta inte bara för att resultaten
blir sämre utan att det handlar om att man bedrar sig själv. Man tror att man
blir mer effektiv men i själva verket tar det ofta längre tid.
Artikeln refererar till studier, bland annat från Harvard
Business Review och undersökningar av programmerare,
som visar på tydliga negativa effekter av okritisk AI-användning:
- Tidsförlust:
Anställda kan behöva lägga timmar på att reda ut missförstånd och rätta
fel i AI-genererat material. Studien i
Harvard business review visade att det i genomsnitt krävs nästan två
timmar per uppgift för att reda ut missförstånd eller komplettera det som
saknas.
- Minskat
förtroende: När diagram och data visar sig vara felaktiga skapas en
misstänksamhet kollegor emellan. Tilliten till arbetsmaterialet naggas i
kanten. Det uppstår klyftor mellan de som använder AI (och ibland
levererar slarviga svar) och de som inte gör det, där de senare kan
uppleva att kollegorna inte gör sitt jobb ordentligt.
- Kunskapsklyftor: Waern
menar också att det uppstår kunskapsklyftor mellan dem som kan
upptäcka när AI:n har fel – och de som tror att den alltid har rätt.
Fenomenet workslop, där snygga
ytor döljer otillräckliga resultat, är ett högaktuellt ämne för oss skolbibliotekarier/lärare att lyfta fram i
källvärderingen med eleverna. Här är några frågor du kan använda för att
starta diskussionen i klassrummet:
- Workslop:
Hur kan vi veta att det där "perfekta" uppsatsutkastet eller den
snabba sammanfattningen från en AI inte bara är workslop?
- Tidsvinst
eller tidsförlust? Artikeln visar att det kan ta längre tid att
rätta till AI-slarv än att göra jobbet själv från början. Hur kan vi
undvika att AI faktiskt skapar merarbete istället för att spara tid?
- Din
roll som expert: Om AI-verktyg ofta gör slarvfel – varför är din
egen ämneskunskap det absolut viktigaste verktyget för källvärdering just
nu?
- Vad
är källvärdering idag? Vad betyder det att vara källkritisk mot
ett verktyg som inte ljuger medvetet, men som ändå kan ge dig felaktiga
svar?
Artikeln:
Ahlström, K. (2025, November 24). Fenomenet ”workslop” visar
hur människor städar AI-slarv. DN.se; Dagens Nyheter. https://www.dn.se/kultur/fenomenet-workslop-visar-hur-manniskor-tvingas-stada-upp-ai-slarv/
AI-bild från Gemini

Kommentarer
Skicka en kommentar