Vilken typ av superintelligens vill vi ha? Diskussionsunderlag i klassen


AI-utvecklingen går fort. Nu pratar branschen om nästa stora steg: superintelligens. AI som inte bara matchar oss människor, utan går långt bortom vad vi kan göra. 

Tänk dig ett system som är designat för att ständigt bli smartare. Inte bara lära sig en gång, utan fortsätta förbättra sig själv, om och om igen. Det är superintelligens i ett nötskal – "lära sig att lära sig" på en nivå som går långt bortom vad människor klarar av. 

I november 2025 publicerade Mustafa Süleman, chef för Microsoft AI och tidigare medgrundare av DeepMind, en text där han diskuterar framtiden för superintelligens och hur vi bör närma oss den.

Süleman ställer frågan:  Vilken typ av superintelligens vill världen ha?

Süleman menar att vi nu står vid ett historiskt vägskäl i AI-utvecklingen: Hur ska vi kunna begränsa, säkra och kontrollera ett system som medvetet är konstruerat för att bli smartare än människan själv? Och ännu mer problematiskt, hur ska vi kunna anpassa ett sådant system så att det i någon mening ”bryr sig” om mänskliga värden tillräckligt för att inte orsaka oss skada?

Süleman pekar på att vi i dag helt enkelt saknar kunskap om vad som kan växa fram ur autonoma system som ständigt utvecklas och förbättrar sig själva – system som dessutom har tillgång till hela vår vetenskapliga kunskap och en djup förståelse för hur våra samhällen fungerar.

Eftersom denna form av superintelligens kan förbättra och omforma sig själv över tid, räcker det enligt Süleman inte med engångslösningar. Kontroll, begränsning och justering behöver ske kontinuerligt, utan slutpunkt – i praktiken för all framtid. Ett ansvar som inte kan läggas på några få avancerade AI-labb. Varje kommersiellt företag, varje startup, varje regering och varje myndighet måste, enligt Süleman, vara engagerade i ett gemensamt projekt för kontroll och inneslutning. Men frågan är: Kommer andra att följa samma väg?  Vad händer när uppstickare eller aktörer i länder utan samma regler börjar bygga sina egna system?

Jag undrar om vi ens kommer att kunna välja.....

Ämnet är intressant att diskutera tillsammans med eleverna. Mustafa Süleymans artikel kanske kan leda fram till intressanta lektioner kring olika ingångar i resonemang kring värdegrund, definitioner av intelligens, kontroll, ansvar och det gemensamma samhällsansvaret. Här är några förslag.  

Lektionsidé 1: ”När AI blir smartare än människan”

Syfte: Träna kritiskt tänkande, etik och resonemang
Årskurs: 8–9 eller gymnasiet
Tid: 60–90 min

Startfråga (helklass)
Om ett system är smartare än alla människor tillsammans –
vem ska då bestämma över det?


Eleverna får diskutera i grupper: 

  • Vad menas med ”att bli smartare”?
  • Är intelligens samma sak som visdom?
  • Kan ett system förstå mänskliga värden utan att vara människa?
  • Vem bär ansvaret om något går fel? 

Lektionsidé 2: ”Vilken superintelligens vill vi ha?”

Syfte: Demokratisk kompetens, maktanalys & värdegrund
Eleverna får arbeta med frågan som Süleman själv ställer:

Vilken typ av superintelligens vill världen ha? 
Uppgift: Eleverna ska formulera tre regler som ALLA superintelligenta system måste följa.

Exempel: 

  • Får den fatta beslut om människor? 
  • Får den påverka politik?
  • Får den dölja information?
  • Vem stänger av den – och när?
Vem äger superintelligensen?

  • Ska superintelligens ägas av privata företag (som tech-bolag)?
  • Ska den styras av stater eller regeringar?
  • Ska den vara global och internationell (typ FN)?
  • Eller ska den vara öppen och tillgänglig för alla (open source)?
Följdfrågor:
  • Vilka risker finns med varje alternativ?
  • Vem tjänar på de olika modellerna?
  • Hur säkerställer vi att alla länder och människor får nytta?
  • Vilka skyddsmekanismer behövs mot missbruk?

Dessa idéer kan ge eleverna verktyg att tänka både kritiskt och konstruktivt kring en av vår tids viktigaste frågor.





AI-bild från Lexica.art






Kommentarer