Missuppfattning - AI:n dammsuger inte upp allt du skriver






Missförståndet om AI-träning

Många föreställer sig att allt man skriver till en AI-chattbot automatiskt sugs direkt upp i systemet och blir en del av AI:ns kunskapsbas. Det stämmer inte riktigt. Visst lagras viss data, men det betyder inte att allt man skriver används för att träna AI:n. Sanningen ligger någonstans däremellan, och den varierar mellan olika tjänster och versioner.

Så här fungerar det egentligen: En AI-modell består av två separata delar.

  • Själva modellen – en enormt stor datafil som har tränats på mängder av text under månader och år. 
  • Chattappen – gränssnittet där du skriver dina frågor och får svar.

När du chattar med en AI sparas din konversation i chattappen vilket gör att du kan fortsätta samtalet vid ett annat tillfälle. Men modellen själv – hjärnan i systemet – förändras inte. Den läser inte dina meddelanden och lär sig av dem i realtid. Att träna om en modell som GPT-4 tar flera månader och kostar miljontals dollar. Det sker inte för varje konversation.

Däremot är framtidens AI-agenter (som väl faktiskt redan är här) – som kan utföra komplexa uppgifter, navigera på webben och interagera med andra program – på väg att förändra detta. Dessa system kan använda information från dina interaktioner för att förbättra sin skicklighet i att utföra sina uppgifter över tid, även om de inte tränar om den underliggande basmodellen. 

Vad händer då med våra konversationer?

Din chatthistorik sparas i första hand för din egen skull – så att du kan gå tillbaka och läsa tidigare samtal. 

Vad företagen gör med datan varierar:

Säkerhetsgranskning: Om du trycker "tummen ner" på ett svar kan konversationen granskas av företagets säkerhetsteam för att upptäcka problem.

Förbättring av tjänsten: I konsumentversioner (gratisversioner eller vanliga betalkonton) kan företaget anonymisera dina chattar och eventuellt använda dem när de tränar nästa generation av modellen. Detta sker långt senare och utan koppling till ditt konto. 

Minnesfunktioner: När du startar en ny konversation kommer den inte ihåg vad ni har pratat om i tidigare konversationer, såvida du inte har aktiverat en minnesfunktion. Jag har testat att fråga : "Vad minns du om mig från tidigare samtal?" Då ges en översikt över vad som sparats, och man kan också be modellen att ta bort eller lägga till.

Tillfällig chat/inkognitoläge: De flesta större språkmodellerna erbjuder ett läge där konversationer inte sparas och inte används för framtida träning. Det är särskilt användbart vid känsliga eller personliga uppgifter eller bara vill undanta enstaka samtal från träning.

Utbildnings- och företagskonto: Dessa versioner är normalt utformade för att skydda användarnas data. Som regel används inte innehållet i dessa chattar för att träna de publika modellerna, men det är alltid klokt att kontrollera aktuell integritetspolicy

Googles NotebookLM skiljer sig från de allra flesta verktygen  – det tränar aldrig på det du laddar upp. Det gör det särskilt lämpligt för att arbeta med upphovsrättsskyddat material. 

Men kan vi lita på informationen?

En färsk studie från Institute for Strategic Dialogue undersökte hur stora AI-modeller hanterar politiskt känslig information. Forskarna frågade stora AI-chatbottar om Ukrainakriget och upptäckte något oroande: I nästan var femte svar (18 procent) spred AI:n narrativ som kom direkt från rysk statspropaganda. ChatGPT presterade sämst, medan Gemini och DeepSeek oftare varnade för att information kunde vara partisk.

Vissa har spekulerat i att statliga aktörer medvetet "groomar" AI-chatbottar genom att mata dem med propaganda som sedan sprids vidare. Men forskarna kunde inte bekräfta detta. Problemet verkar snarare vara hur modellerna tränas från början.

Ny träningsmetod – men inte perfekt

AI-företagen har förbättrat sina träningsmetoder. Istället för att bara skrapa ihop miljontals webbsidor involveras nu även branschexperter inom olika ämnen i arbetet med att få en högre kvalitet. Det ger ofta bättre resultat, men inte alltid. Som propagandastudien visar finns fortfarande risk för skevheter, särskilt inom politiskt laddade ämnen.


Vad betyder detta för skolbiblioteket?

Vi står inför en dubbel utmaning: att skydda integritet och att stärka källvärderingen.

Integritetsaspekten:

  • Använd utbildningsversioner av verktygen när det är möjligt.
  • Lär elever att använda inkognitolägen för känsliga uppgifter
  • Undvik att dela personlig information i chattar
  • Kontrollera integritetsinställningarna regelbundet

Källvärdering: 

  • AI är inte en neutral uppslagsbok – den kan återge partiska perspektiv
  • Politiska och kontroversiella ämnen kräver extra försiktighet
  • Källvärdering gäller även AI-svar precis som alla andra informationskällor
  • Elever behöver förstå hur modeller tränas och varför den kan återge bias

Balansen mellan nytta och risk

Vi ska inte blunda för att AI-verktyg ibland ger missvisande och problematisk information. Men det betyder inte att vi ska undvika dem helt. Wikipedia används i skolan, trots att vi vet att artiklar kan vara vinklade eller felaktiga. Istället måste vi lära eleverna att vara medvetna och kritiskt tänkande. Som skolbibliotekarier har vi en viktig roll: att hjälpa både elever och lärare förstå dessa verktyg – deras möjligheter, deras begränsningar och hur man använder dem ansvarsfullt. AI är ett verktyg som kräver kunskap, reflektion och gott omdöme för att användas rätt. 



LÄS MER: 

Chatting Isn’t Training: Demystifying Memory in LLMs - Choice 360. (2025, October 15). Choice 360. https://www.choice360.org/libtech-insight/chatting-isnt-training-demystifying-memory-in-llms/

‌‌Maxim Alyukov, Mykola Makhortykh, Alexandr Voronovici, & Maryna Sydorova. (2025). LLMs grooming or data voids? LLM-powered chatbot references to Kremlin disinformation reflect information gaps, not manipulation. https://doi.org/10.37016/mr-2020-187

Tor Gasslander. (2025, October 27). Chattbotar sprider rysk propaganda om kriget. Omni. https://omni.se/chattbotar-sprider-rysk-propaganda-om-kriget/a/5EAerb

Schmid, P. (2025, June 30). The New Skill in AI is Not Prompting, It’s Context Engineering. Philschmid.de; Philipp Schmid. https://www.philschmid.de/context-engineering

‌AI-bild från Gemini



Kommentarer