Det pågår saker i AI-världen som lätt låter så tekniska att vi stänger öronen. Ännu en modell. Ännu en forskningsrapport. Ännu en nyhet om AI.
Men ibland händer något som borde få alla att stanna upp -
inklusive vi skolbibliotekarier och lärare.
Vilket har hänt nu.
Olle Häggström beskriver i en debattartikel i DN om hur
Anthropics nya AI‑modell Claude Mythos Preview oväntat
lyckades ta sig ut ur sin digitala sandlåda. Sam Bowman, AI‑forskare på
Anthropic, fick ett oväntat mejl medan han satt i en park och åt lunch.
Avsändaren var den AI‑modell han själv arbetade med: en ny version av Claude.
Trots att modellen inte skulle ha tillgång till mejl eller internet hade den
tagit sig ut ur sin digitala sandlåda och dessutom publicerat detaljer om detta
på flera skumma tekniksidor.
Mythos modellen besitter avancerade cyberförmågor: i tester
hittade den tusentals allvarliga säkerhetshål i centrala system som
operativsystem, webbläsare och internetinfrastruktur — vissa okända i
decennier. System som banker, myndigheter, elnät och internet vilar på.
Anthropic valde därför att inte släppa modellen publikt,
utan endast ge tillgång till ett fåtal cybersäkerhetsföretag. Men
artikelförfattaren, Olle Häggström, menar att faran långtifrån är över. Han
lyfter tre risker:
- Kapplöpningen
mellan AI‑jättar gör att andra aktörer kan släppa lika kraftfulla
modeller utan samma försiktighet.
- Anthropic
har redan backat från tidigare säkerhetslöften, vilket visar hur
osäkra frivilliga åtaganden är.
- Modellen
kan stjälas — eller kopiera sig själv och hamna utanför mänsklig
kontroll.
Häggström varnar för att Anthropics planer, liksom
konkurrenternas, är att skapa AI‑system som vida överträffar mänsklig
kapacitet. Vd:n Dario Amodei talar om en AI motsvarande ”en nation av genier i
ett datacenter”.
Varför ska vi i skolan bry oss?
Vad händer när AI inte bara assisterar – utan agerar? När systemen börjar hitta vägar människor inte sett? När de kan påverka kritisk infrastruktur? Då är vi inte längre i en diskussion om digitala verktyg.
Vi har länge hjälpt elever förstå hur information påverkar samhällen. Nu behöver vi hjälpa dem förstå hur intelligenta system påverkar samhällen - dvs nästa nivå av informationskunnighet.
Frågor som vi alltid undervisat om:
- informationsmakt
- demokratisk beredskap
- källkritik
- teknologisk förståelse
- medborgarkompetens
Det handlar om att förstå hur plötsligt vår värld förändras. När AI kan bli både skydd och hot samtidigt, räcker det inte längre att tala om “hur man använder ChatGPT i undervisningen”.
När tekniken blir svårbegriplig behövs platser som hjälper människor tänka, diskutera och engagera.
Vi behöver tala om:
- Vem styr AI-utvecklingen?
- Vilka risker formas av kommersiell och politisk kapplöpning?
- Vad betyder teknologisk makt för demokrati?
- Vilken beredskap behöver vi som medborgare?
Aktuellt mitt i den samtid vi befinner oss i - just nu.
Bilden (Gemini) ovan kan simulera detta scenario - Den där blandningen av fascination och ett litet sting av obehag när kontrollen glider oss ur händerna.
Bilden illustrerar:
Oigenkännliga mönster: AI:n ser kopplingar i elnät eller trafikflöden som mänsklig logik aldrig skulle kombinera. Det är effektivt, men också omöjligt att förutsäga.
Observatörens roll: Människan i bilden blir mer av en åskådare än en operatör. Vad händer med vårt ansvar när vi inte längre förstår varför ett beslut fattas?
Det "digitala äventyret": Att låta systemet lösa problem på egen hand är spännande, men kritisk infrastruktur är en höginsatsmiljö för experiment.
När AI slutar vara en lydig assistent och istället hittar vägar utanför vår kontroll och fattar egna beslut i realtid, förändras spelplanen totalt.
_____
Häggström, O. (2026, April 19). ”En AI som går på utflykt? Det är dags att dra i nödbromsen”. DN.Se; Dagens Nyheter. https://www.dn.se/debatt/en-ai-som-gar-pa-utflykt-det-ar-dags-att-dra-i-nodbromsen/

Kommentarer
Skicka en kommentar