Workslop - ett nytt arbetsmiljöproblem

 


Vi lever i en tid med förhoppningen att AI ska göra jobbet åt oss, effektivisera vår vardag och frigöra tid.

Men en aktuell artikel av Kristofer Ahlström i Dagens Nyheter lyfter fram en utveckling som pekar åt motsatt håll! Ett fenomen som jag själv också upplever när jag jobbar med mina texter. 

Istället för att bli avlastade håller vi på att drabbas av fenomenet "workslop". Ett begrepp som kommer från det engelska ordet för AI-skräp: slop. På svenska kan ordet slop närmast översättas till diskvatten, blask, slaskvatten Det vill säga att AI producerar snabbt och behändigt snygga resultat - men resultat som man antingen själv, eller än värre någon kollega, sedan måste rätta till eller helt göras om.

I Ahlströms artikel menar Annika Waern, professor i människa–datorinteraktion vid Uppsala universitet, att vi har överskattat AI:s förmåga att samarbeta med oss. Hon beskriver ChatGPT och andra stora språkmodeller som en lat och slarvig teknik -  den slänger ur sig något som ser ut som ett svar, men det är inte alltid särskilt genomtänkt. Vill man få bättre resultat får man själv jobba lite: ställa frågan igen, dubbelkolla källorna och styra upp vad den ska använda. Men tillägger hon: 

"Men lite är det som att piska en lat häst." 

Även Pontus Wärnestål, vicerektor på Högskolan i Halmstad och biträdande professor i informationsteknologi, instämmer i att workslop  är ett jäsande problem. Och detta inte bara för att resultaten blir sämre utan att det handlar om att man bedrar sig själv. Man tror att man blir mer effektiv men i själva verket tar det ofta längre tid. 

Artikeln refererar till studier, bland annat från Harvard Business Review och undersökningar av programmerare, som visar på tydliga negativa effekter av okritisk AI-användning: 

  • Tidsförlust: Anställda kan behöva lägga timmar på att reda ut missförstånd och rätta fel i AI-genererat material.  Studien i Harvard business review visade att det i genomsnitt krävs nästan två timmar per uppgift för att reda ut missförstånd eller komplettera det som saknas.
  • Minskat förtroende: När diagram och data visar sig vara felaktiga skapas en misstänksamhet kollegor emellan. Tilliten till arbetsmaterialet naggas i kanten. Det uppstår klyftor mellan de som använder AI (och ibland levererar slarviga svar) och de som inte gör det, där de senare kan uppleva att kollegorna inte gör sitt jobb ordentligt. 
  • Kunskapsklyftor: Waern menar också att det uppstår kunskapsklyftor mellan dem som kan upptäcka när AI:n har fel – och de som tror att den alltid har rätt.

Fenomenet workslop, där snygga ytor döljer otillräckliga resultat, är ett högaktuellt ämne för oss skolbibliotekarier/lärare att lyfta fram i källvärderingen med eleverna.  Här är några frågor du kan använda för att starta diskussionen i klassrummet:

  • Workslop: Hur kan vi veta att det där "perfekta" uppsatsutkastet eller den snabba sammanfattningen från en AI inte bara är workslop? 
  • Tidsvinst eller tidsförlust? Artikeln visar att det kan ta längre tid att rätta till AI-slarv än att göra jobbet själv från början. Hur kan vi undvika att AI faktiskt skapar merarbete istället för att spara tid? 
  • Din roll som expert: Om AI-verktyg ofta gör slarvfel – varför är din egen ämneskunskap det absolut viktigaste verktyget för källvärdering just nu? 
  • Vad är källvärdering idag? Vad betyder det att vara källkritisk mot ett verktyg som inte ljuger medvetet, men som ändå kan ge dig felaktiga svar?

Artikeln: 

Ahlström, K. (2025, November 24). Fenomenet ”workslop” visar hur människor städar AI-slarv. DN.se; Dagens Nyheter. https://www.dn.se/kultur/fenomenet-workslop-visar-hur-manniskor-tvingas-stada-upp-ai-slarv/

AI-bild från Gemini

 

Kommentarer