Vi har rusat in i AI-eran — men varför?
Generativ AI säljs in som lösningen på allt från sjukvård till skolkris — men används i praktiken för att massproducera meningslöshet. Bakom löftena om innovation döljer sig en teknologi som exploaterar arbetare, utarmar kulturen, dränerar språket och centraliserar makt. Ändå vågar få säga emot — för ingen vill vara den som står i vägen för ”framtiden”. Men just därför måste vi börja ifrågasätta vad det är vi håller på att bygga. Och för vems skull.
Generativ artificiell intelligens (genAI) — det senaste begreppet inom det mer generella AI-fältet — lyfts fram som en revolutionerande teknologi med enorm potential. De flesta associerar i praktiken begreppet med tjänster som ChatGPT, DeepSeek, Claude, DALL·E och Midjourney — tjänster som kan “skapa” text, bilder och musik med en precision som för bara några år sedan var otänkbar. Även en rad andra förmågor tillskrivs genAI och berättar historien om en teknik-driven samhällsförbättrande revolution.
Halo-effekten, även kallad gloria-effekten, är ett psykologiskt fenomen där vår helhetsbedömning av något påverkas oproportionerligt mycket av en enda positiv egenskap eller association. Termen myntades av psykologen Edward Thorndike i början av 1900-talet, efter att han observerat att soldaters fysiska utseende påverkade hur deras övriga egenskaper bedömdes av officerare. Om en soldat uppfattades som attraktiv eller vältränad, ansågs han också vara mer intelligent, kompetent och disciplinerad — trots att det inte fanns några belägg för det.
Inom teknikområdet uppstår halo-effekten ofta när en ny innovation associeras med framtid, förbättring, intelligens eller förlösande potential — vilket gör att vi tenderar att överse med dess brister eller ignorera dess negativa konsekvenser. Generativ AI omges av en kraftfull halo-effekt. GenAI lyfts fram som nyckeln till framtidens sjukvård, skräddarsydd undervisning, effektiv välfärd och vetenskapliga genombrott. Eftersom tekniken potentiellt kan förbättra sjukvård, undervisning och vetenskap — antas det underförstått att alla tillämpningar är värdefulla. Men i praktiken används tekniken i första hand till att massproducera texter, bilder och kod som ofta är snabb och billig — men sällan meningsfull eller värdeskapande i längden.
Halo-effekten i kombination med en allmän sense of urgency — att vi alla snabbt måste anamma genAI för att inte “förlora AI-racet” eller “halka efter” — gör att kritik blir svår. Den som ifrågasätter tekniken riskerar att framstå som bakåtsträvande, teknikfientlig eller likgiltig inför samhällets behov. Och just därför krävs ett kritiskt förhållningssätt.
För under den glänsande fernissan finns en baksida som sällan diskuteras, en verklighet där ekologiska, sociala och ekonomiska hållbarhetsproblem samverkar med geopolitiska och kulturella frågor — och förvärras i skuggan av en i dagsläget okritisk teknikutveckling.
Ekonomisk ohållbarhet — en attack på “kreativa” yrken
Författare, konstnärer, fotografer och musiker har under lång tid byggt sina yrken på kreativitet och upphovsrätt. Men generativ AI utmanar detta fundament genom att träna på data insamlad från internet — oftast helt utan tillstånd eller ersättning till de ursprungliga skaparna som nu ser sina verk bli råmaterial i AI-träning. Generativa AI-tjänster baserade på språkmodeller och GPT-arkitekturen kan nu generera konst, musik och texter som imiterar existerande kreatörers stilar, vilket ytterligare väcker frågor om upphovsrätt och rättvis ersättning.
Lagstiftningen släpar efter, och i många länder är det fortfarande i en juridisk gråzon att använda kreatörers verk för AI-träning utan samtycke. Det finns många slags metoder för text- och datautvinning som innebär att material samlas in (“skrapas”) från internet av mjukvarurobotar. För författare, konstnärer och kreatörer innebär detta att deras verk exploateras utan att de får någon kompensation — en utveckling som hotar hela den kreativa sektorn.
Den kulturella skadan är redan omfattande. Redan år 2023 uppskattades det att AI-tjänster genererat fler bilder än vad som fotograferats under hela mänsklighetens historia. Mer än hälften av internettrafiken utgörs i dag av robotar, och en växande andel av allt innehåll online bär spår av att vara maskinellt genererat. Resultatet är en medie- och informationsmiljö som snabbt förlorar sin mänskliga kvalitet, där originalitet ersätts av variationer på statistiska sannolikheter.
Utvecklingen riskerar att avskräcka en ny generation kreatörer. Varför investera tid, pengar och liv i att bli författare, illustratör eller fotograf, om ens verk utan samtycke kan skrapas, användas, och sedan imiteras av en AI-modell som snabbt tar över ens marknad? I stället för att stimulera kreativitet, bygger generativ AI en industri där den som matar in en prompt — en kort textbeskrivning — får resultatet, medan hela den visuella, språkliga eller musikaliska skapandeprocessen outsourcas till en kommersiell statistisk prediktionsmaskin. Den “kreativa” insatsen reduceras till beställning, och vi får en alltmer AI-fierad mediaverklighet — präglad av likriktning, reproduktion och kommersiell optimering.
I förlängningen riskerar detta att leda till en form av kulturell modellkollaps: när AI-modeller i allt högre grad tränas på sitt eget, redan genererade material, utarmas kvaliteten, variationen och djupet. Samhället står då inte bara inför en ekonomisk och rättslig kris i den kreativa sektorn — utan inför en mer grundläggande fråga: hur bevarar vi mänsklig kultur, språk och uttryckskraft i en värld där maskinen tillåts härma människan utan gränser, ansvar eller motstånd?
🔍 Om du är författare kan du själv undersöka om din text är skrapad och använd i Metas senaste modeller. Du kan också använda tjänsten haveibeentrained.com för att undersöka om dina bilder använts som träningsdata.
Social ohållbarhet — det dolda arbetet bakom AI
För att de generativa AI-modellerna ska fungera krävs å andra sidan en stor mängd mänskligt arbete för att kurera den insamlade datan. Bakom varje välformulerad text och varje genererad bild döljer sig tusentals timmars lågavlönat arbete. I det tysta har en global skuggarbetsmarknad vuxit fram, där människor i länder som Kenya, Filippinerna och Venezuela manuellt märker upp, städar och modererar innehåll i den brokiga skrapade datan. Lönerna är låga, skyddsnäten obefintliga, och det psykologiska priset för dem som dagligen tvingas exponeras för våldsamt eller exploaterande material är högt. AI-industrins framgångar vilar bokstavligen på dessa människors skuldror, men arbetet i dessa ”digitala sweatshops” förblir osynlig för de flesta slutanvändare.
Innehållsmoderatorer (“content moderators”, “clickworkers”, “taggers”), som arbetar med att rensa bort olämpligt material från sociala medier och AI-system, har rapporterat om PTSD, depression och ångest till följd av sitt arbete. Techbolagen, som skördar miljardvinster, ger ofta minimalt stöd till dessa arbetare.
📕 Boken “Feeding the Machine” (Cant et al., 2024) går grundligt igenom problemen med det osynliga arbetet och lidandet hos innehållsmoderatorer.
Ekologisk ohållbarhet — en energislukande industri
Utvecklingen och driften av storskaliga AI-modeller kräver stora mängder energi och vatten. För att träna en enda modell, som OpenAIs GPT-4, krävs elförbrukning motsvarande tusentals hushålls årliga energibehov. De datacenter som driver AI-systemen är energislukande kolosser, där processorkraften genererar en enorm värme som i sin tur kräver kylning — en process som förbrukar stora mängder färskvatten. Vattenbrist är redan ett akut problem i många delar av världen, men AI-industrins vattenförbrukning är dåligt dokumenterad, vilket gör det svårt att bedöma den faktiska påverkan.
Därtill kommer koldioxidutsläpp. Träningen av storskaliga AI-modeller (“foundation models”) kan producera lika mycket utsläpp som flera långdistansflygningar, och även den dagliga användningen av AI kräver betydande energi. Detta är en aspekt som ofta glöms bort när man pratar om AI:s klimatpåverkan — det handlar inte bara om träning, utan också om varje enskild gång någon beställer en text eller bild. Den generativa AI:ns miljöpåverkan utgör ett växande problem som vi ännu inte fullt ut förstår konsekvenserna av. Problemet är att det är svårt att få ut korrekt data kring energi, koldioxid och vattenåtgång. Detta faktum gör att det går att nedprioritera frågan, vilket i förlängningen gör att så länge techbolagen lyckas undanhålla dessa siffror så adresseras inte miljöproblemen.
📕 Boken “Atlas of AI” av Kate Crawford (2021) beskriver den ekologiskt miljömässiga baksidan av AI.
Geopolitisk osäkerhet — AI som resiliens och infrastruktur
Hypen kring AI har börjat påverka den globala geopolitiken på ett sätt som tidigare teknologiskiften inte gjort på samma snabba sätt. Ett allvarligt problem är Europas och Sveriges ökande beroende av amerikanska techjättar för AI-tjänster. Företag som OpenAI, Google och Meta dominerar utvecklingen av generativ AI, och deras modeller används i allt större utsträckning inom både offentlig förvaltning och näringsliv. Detta skapar en sårbarhet i en värld där geopolitiska konflikter och ekonomiska sanktioner kan förändra spelplanen snabbt.
Om AI betraktas som en central del av framtidens infrastruktur — vilket den i allt högre grad blir — måste vi fråga oss vilka risker som följer av att en så viktig teknologi kontrolleras av enskilda företag i exempelvis USA. I ett framtida krisläge skulle Sverige och EU kunna hamna i en situation där tillgången till AI-tjänster begränsas eller påverkas av beslut fattade utanför vår kontroll. Det gör att vi måste se AI inte bara som en kommersiell innovation, utan som en fråga om digital suveränitet och resiliens.
📕 Carl Heath har skrivit en artikel om digital resiliens utifrån ett svenskt perspektiv (2025).
Språklig påverkan — Sveriges språkpalett
Ett underskattat men långsiktigt problem med generativ AI är dess påverkan på språkanvändning. De största språkmodellerna är optimerade för amerikansk engelska och har ett implicit anglocentriskt perspektiv som riskerar att påverka hur svenskan används och utvecklas. AI blir i allt högre grad en del av vårt dagliga språkbruk — i textgenerering, kundservice, utbildning och offentliga sammanhang. Om den svenska AI-utvecklingen släpar efter och vi blir beroende av anglosaxiska modeller, kan det leda till en urvattning av svenskan både som kommunikativt och kulturellt verktyg.
Detta handlar alltså inte första hand om korrekt syntax och grammatik, utan om språkets roll som tankemönster och identitetsbärare. Språk formar hur vi ser på världen, och om AI domineras av en viss kulturell kontext riskerar det att förändra hur vi uttrycker oss och vilka perspektiv vi tar med oss in i våra resonemang.
Särskilt allvarligt är detta för Sveriges minoritetsspråk, såsom samiska, meänkieli och romani chib, som redan kämpar för sin överlevnad. Dessa språk är obefintligt representerade i dagens AI-modeller och riskerar att ytterligare marginaliseras om inte särskilda insatser görs för att inkludera dem i en nationell språkmodellsutveckling.
Om vi ser AI som språkmodellering och en del av vårt samhälles digitala operativsystem måste vi också förstå vikten av att bevara språklig mångfald och säkerställa att framtida AI-modeller stärker, snarare än underminerar, våra egna språkliga och kulturella identiteter.
AI och informationspåverkan — en ny arena för manipulation
En växande risk med generativ AI är dess sårbarhet för informationspåverkan och manipulation från antagonistiska aktörer. Utländska propaganda- och desinformationsnätverk har redan börjat infiltrera språkmodeller genom en strategi som kallas ”LLM grooming”. Genom att massproducera falska nyheter och använda sökmotoroptimering lyckas dessa aktörer få AI-modeller att upprepa och legitimera främmande makts narrativ, även i fall där modellerna försöker motbevisa dem. Ryska Pravda driver 50+ domäner som producerade 3,6 miljoner skräddarsydda artiklar bara under 2024. Dessa artiklar skrapas som innehåll och flyter sedan fritt in i chattbotar och AI-genererade nyhetsartiklar.
Detta är en allvarlig säkerhetsfråga för Sverige och Europa. Om vi förlitar oss på AI-modeller som tränats på data manipulerad av främmande makter, riskerar vi att skapa digitala ekosystem där desinformation sprids på ett sätt som är svårt att upptäcka och motverka. Det gör det brådskande att utveckla inhemska språkmodeller med robusta mekanismer för att identifiera och motstå informationspåverkan. Sverige måste ta fram processer för att testa och granska AI-modeller som används i samhällskritiska funktioner, och samtidigt investera i öppna, transparenta språkmodeller för det svenska språket och dess minoritetsspråk.
Juridiken — rättslöshet som affärsmodell?
Generativ AI har gjort det möjligt för teknikföretag att kliva rakt in i medie-, kultur- och underhållningssektorerna, utan att ta det ansvar som traditionella aktörer i dessa branscher länge burit. När AI-modeller producerar text, bild och video blir teknikbolagen inte bara plattformsleverantörer — de blir i praktiken publicister. Men till skillnad från förlag, nyhetsredaktioner eller TV-kanaler har dessa aktörer inget utgivaransvar. Detta är ett känt mönster från sociala media-bolagen. Det är en systemisk frikoppling mellan innehåll och ansvar, och den får redan allvarliga konsekvenser.
I dag används generativa AI-tjänster för att producera förtal, deepfake-porr, falska nyheter och utpressningsmaterial. Fall där AI genererat barnpornografiskt innehåll har avslöjats, liksom händelser där människor oskyldigt pekats ut som mördare av språkmodeller. I inget av dessa fall har företagen bakom modellerna burit något rättsligt ansvar. Att distribuera övergreppsbilder via zip-filer är (med rätta) olagligt — men att träna och distribuera en AI-modell som möjliggör samma handlingar möts ofta med axelryckning och en länk till ett “användaravtal”.
Samtidigt är det i praktiken svårt för användare att skydda sig. Initiativ som haveibeentrained.com har möjliggjort att över 1,5 miljarder bilder optats ut från träning — men dessa val har ignorerats av bolag som OpenAI och Stability AI i senare versioner av DALL·E 3 och Flux. Samma gäller text: databasen Books3, som bland annat använts av DeepSeek och OpenAI, innehåller upphovsrättsskyddade verk från tusentals författare utan tillstånd. The Atlantics söktjänst för att hjälpa författare hitta sina egna verk i databasen hjälper föga, när ingen mekanism för ersättning eller opt-out finns.
ℹ️ The Authors’ Guild har en informationssida med tips på vad du som författare kan vidta för åtgärder om dina verk använts utan tillåtelse.
I praktiken har vi fått en situation där kostnaderna — juridiska, sociala och samhälleliga — skjuts över på användare, kreatörer, offer och myndigheter, medan vinsterna koncentreras hos ett fåtal globala aktörer. Om vi menar allvar med att AI ska användas för samhällsnytta kan vi inte fortsätta tolerera ett ekosystem där ansvarsfrihet är inbyggd i affärsmodellen.
Vem tjänar på AI?
Den avgörande frågan är: vem gynnas egentligen av nuvarande genAI-utveckling? Techbolagen bakom generativ AI gör enorma vinster, medan samhällskostnaderna fördelas på resten av världen. AI-industrin slukar energi, utarmar naturresurser, exploaterar arbetskraft i den globala södern, skiftar geopolitisk maktbalans och hotar framtiden för kreativa yrken. Samtidigt är transparensen från dessa företag nästintill obefintlig.
Varför springer vi?
Vem tjänar egentligen på dagens AI? Det är den centrala frågan vi måste ställa oss. Vi har tydligen gått med på att delta i ett “AI-race” där målet verkar vara snabbare, större och mer integrerad teknologi — men till vilken nytta, och för vem? Har vi ens valt den här vägen, eller har vi bara accepterat att den är oundviklig (“adapt or die”)?
Vi har en tendens att alltid se effektivisering och teknologisk innovation som synonymt med framsteg för samhället, men är det verkligen så? Innovation kan vara en nödvändig pusselbit, men den är inte tillräcklig i sig själv. Vad händer när tempot ökar, men riktningen förblir oklar? Generativ AI lovar mycket, men skapar också nya sårbarheter, nya beroenden och nya former av exploatering. Istället för att fråga hur vi kan springa snabbare borde vi kanske fråga varför vi springer överhuvudtaget — och vart denna diffusa språngmarsch egentligen skall leda.
En annan väg — AI för samhällsnytta
Om man studerar teknologisk utveckling historiskt, så gynnar den initialt och primärt en ekonomisk elit snarare än samhället i stort. Det är först när policy och regelverk modererar och distribuerar effekten av den nya teknologin som den börjar gynna resten av samhället. Detta glöms ofta bort när det målas med breda penslar om exempelvis förra sekelskiftets industrialisering. Det var först då arbetarna organiserade sig och lagar om arbetstid och minimilön etc. kom på plats som de positiva effekter som vi idag förknippar med industrialiseringen infann sig för samhället i stort. Ångmaskinen i sig skapade inte lagstadgade semesterdagar, så att säga. Fackföreningar, politik och lagar var viktiga styrmedel för att förflytta teknologin till det vi idag förknippar med industrialismens innovation (om vi med innovation verkligen menar värde för samhället). Var finns dessa mekanismer i dagens AI-race?
Det är alltså möjligt att dra en annan slutsats än de ensidigt utopiska AI-förespråkare som hävdar att vi måste delta i “AI-racet” för att inte bli omsprungna. Istället för att blint acceptera genAI-utvecklingen som en naturlag skulle man istället kunna fråga: Hur kan vi styra teknologin för att tjäna demokratin, arbetarna och den breda befolkningen — snarare än några få företagsintressen?
Generativ AI, precis som ångmaskinen, elektriciteten och datoriseringen, är inte en neutral kraft. Den formas av de regler vi sätter upp, av de incitament vi bygger in, av de aktörer som väljer att agera, och av de prioriteringar vi gör. Thorndikes halo-effekt berättar en ensidigt positiv och optimistisk historia om demokratiserande generativ AI, även om den just nu utvecklas i en riktning som påminner om den tidiga industrialiseringen där den istället ökar ojämlikhet, underminerar arbetstillfällen och koncentrerar makt hos några få aktörer.
Men så behöver det inte fortsätta.
Vi kan välja en väg där AI förbättrar arbetslivet snarare än förstör jobb, där den hjälper oss att skapa en mer hållbar värld snarare än att sluka resurser, och där den förstärker vårt språk, vår kultur och vårt samhälle snarare än att urvattna dem. Poängen är att detta inte kommer att ske automatiskt. Det är inte en inneboende egenskap hos teknologi att göra det. Det krävs regler, policy och lagar för att uppnå detta.
Den verkliga frågan är alltså inte om vi ska ha generativ AI eller inte. Det är hur vi vill att den ska fungera — och för vems skull. Att blint rusa framåt är inget framsteg. Ett verkligt framsteg vore att stanna upp och fråga: Vilken framtid vill vi egentligen ha?
Neil Postman, mediateoretiker och författare, formulerade sju centrala frågor vi alltid bör ställa oss när vi står på tröskeln inför ett nytt teknologiskifte:
- Vilket problem påstår teknologin sig vara en lösning på?
- Vems problem är det?
- Vilka nya problem kommer att skapas genom att lösa ett gammalt?
- Vilka människor och institutioner kommer att drabbas hårdast?
- Vilka förändringar i språket främjas?
- Vilka skiften i ekonomisk och politisk makt är troliga som följd?
- Vilka alternativa medier skulle kunna skapas utifrån teknologin?
En seriös och eftertänksam genomgång av dessa frågor när det gäller generativ AI skulle vara bra att göra – innan man tar på sig löparskorna och ställer sig i startblocken.
Jag heter Pontus Wärnestål och är forskare, designer och författare. Jag arbetar, forskar och undervisar inom artificiell intelligens, design och digitalisering. Inte bara med generativ AI, utan bredare tillämpningar av digital teknologi i företag, samhälle, infrastruktur och kultur. Det kan verka motsägelsefullt att jag i min yrkesroll är så kritisk till något jag själv är en del av. Men det är just skälet! Jag vill att det vi bygger ska bli bra; hållbart, rättvist och klokt. Vi har bara en chans att göra det här på rätt sätt. För att det ska ske behöver vi fler perspektiv, inte färre. Teknik är aldrig neutral, och det är upp till oss att styra den i den riktning vi tror på.
Tack till Oskar Broberg och Johan Cedmar-Brandstedt för feedback och bidrag till den här texten.