Fredagsreflektion – AI och hållbarhet
Hur hållbar är den här texten egentligen? Ja, det beror på om jag ställer den frågan så här i en chatt eller om jag ställer den till ChatGPT/Copilot eller om jag ställer den till Google …
En fråga till ChatGPT förbrukar nästan 10 gånger så mycket el som en sökning på Google, enligt International Energy Agency.
Poängen är givetvis att våra promptar, som till synes är helt gratis, kräver mängder av el när de masseras i ett datacenter. Det är nog ingen nyhet, men mängden el kanske kommer som en överraskning. Google, som tänkte att de skulle nå målet nollutsläpp till 2030 ser nu hur deras utsläpp av klimatgaser har ökat med 48 procent sedan 2019. Ökningen beror nästan uteslutande på storsatsningen på AI. Nu tror Google inte längre att deras mål med nollutsläpp till 2030 kommer att nås … aj då. Den globala energiåtgången för AI beräknas tiodubblas bara de närmaste två åren.
Varje fråga driver alltså på utsläppet av klimatgaser (till den dag vi har löst energifrågan och uteslutande har tillgång grön el … det lär dröja lite). Vad kan vi då göra? Ett sätt skulle kunna vara att vidga hållbarhetsperspektivet och föra in vår egna energiförbrukning kopplat till AI i resonemanget. Att sluta prompta känns ju inte som vägen framåt – men vad är det egentligen vi formulerar för promptar? Med ett tydligt syfte som inkluderar ett hållbarhetstänk kanske vi får fler promptar i stil med ”hur räddar jag en katt i ett träd?” än ”kan du visa en gullig bild på en katt i ett träd”?
Hur hållbara är dina promptar …?