Hoppa till huvudinnehåll
Search
Menu
AI generativ LLM energi ChatGPT

Kör generativ AI bara på luft?

Har du testat att fråga ChatGPT hur mycket energi den använder för att träna sig själv?

Den svarar "Som en AI-språkmodell har jag ingen direkt information om den specifika energianvändningen som är involverad i att träna mig."

Den fortsätter sen "Träningsprocessen för storskaliga AI-modeller som min kräver vanligtvis betydande beräkningskraft och energiresurser. Den exakta energianvändningen kan dock variera beroende på faktorer som hårdvaruinfrastruktur, Träningslängd och optimeringstekniker som används."

Användningen ökar

I takt med att fler och fler företag släpper generativa AI-tjänster som ChatGPT, fristående eller integrerade i andra produkter, uppstår frågan hur kostsamma de är för miljön och energianvändningen. Är dessa superstora språkmodeller eller andra stora AI-modeller tränade med förnybar energi eller kol? Hur mycket energi tar det att träna första gången? Hur är det med uppdateringarna och omträningen? Hur är det då med användningsfasen, inferensen, hur mycket energi används för varje begäran eller svar?

Generativ artificiell intelligens (AI) har fängslat vår fantasi med sin förmåga att skapa engagerande innehåll. Från häpnadsväckande bilder till intrikata musikkompositioner, denna teknik har sett anmärkningsvärda framsteg. Flera företag som Meta, Google, OpenAI och Microsoft har släppt tjänster baserade på denna teknik och användningen har exploderat. Men när vi fördjupar oss i världen av generativ AI är det viktigt att överväga energianvändningen i samband med träning och användning av dessa modeller.

Utmaningar med energianvändningen

Att träna generativa AI-modeller kräver betydande beräkningskraft, ofta kräver högpresterande GPU:er eller specialiserade hårdvaruacceleratorer. Detta, i kombination med utökade träningstider som sträcker sig över dagar eller veckor, resulterar i betydande energianvändning. Träningsprocessen sker vanligtvis i stora datacenter utformade för att optimera effektiviteten.

I användningsfasen ligger utmaningen i att distribuera beräkningen så nära slutanvändaren som möjligt. Detta kräver att högpresterande servrar installeras i mindre moduler eller skåp vid kanten av näten (edge), som möjliggörs av tekniker som 5G eller 6G. Där behövs också avancerade processorer på grund av kravet på låg latens för slutanvändaren.

Nästa problem är begränsningarna för CMOS-tekniken. Det är svårare att göra processorerna mer effektiva utan att göra dem mer komplexa och tända upp fler transistorer, det betyder mindre nersläckt kisel. Detta kommer att resultera i högre värmeflöde på ytan snart i nivå med ett kärnkraftverk. Det kommer också att medföra behovet av lägre temperaturer på processorhöljet 50-60 grader C. Allt detta kommer att göra det svårare att kyla med luft och kommer att kräva vätskekylning, on-chip eller nedsänkning.

Sammanfattningsvis kommer energianvändningsutmaningarna för avancerad AI att ske på två ställen. Det kommer att ske i centrala hyperstora datacenter för träning av modeller och i de små edgenoderna i användningsfasen.

Minskning av energianvändning

Ett sätt att hantera energianvändningen är att optimera hårdvaruinfrastrukturen som används för träning och användning av generativa AI-modeller. Detta inkluderar utveckling av energieffektiva GPU:er och utforskande av specialiserade processorer som utformats specifikt för AI-arbetslast.

För termisk hantering av det ökade värmeflödet kan effektiva kylsystem och energihanteringstekniker också bidra till att minska energianvändningen samt överhuvudtaget göra det möjligt att använda. Användning av holistisk kylning och riktad vätskekylning kommer att behövas.

En övergripande strategi för miljöansvar involverar livscykelhantering, som omfattar alla stadier från hårdvaruproduktion till hantering av uttjänta produkter. Detta inkluderar hållbar materialförsörjning, operativ effektivitet, vattenhantering och ansvarsfull återvinning och återanvändning.

En bortglömd pusselbit blir ofta mjukvaruoptimeringen. Det moderna mjukvaruutvecklings-paradigmet är time-to-market. Det är bra för hastigheten på modellutvecklingen, men i användningsfasen behövs en produktionsliknande optimerad mjukvarustack, från operativ-systemet till applikationslagret, för effektivitet. Kanske till och med assemblerspråkskodning kommer att göra en comeback som en gammal hockeyspelare.

Forskare arbetar ständigt med att förbättra effektiviteten hos generativa AI-modeller. Tekniker som modellkomprimering, kunskapsdestillation och nätverksarkitekturdesign syftar till att uppnå jämförbar prestanda med minskade beräkningskrav. Genom att minimera modellens komplexitet kan energianvändningen under tränings- och slutledningsfaser reduceras avsevärt.

Att anamma förnybara energikällor för att kraftförsörja datacenter är ett viktigt steg mot att kompensera koldioxidavtrycket från generativ AI-träning. Många organisationer går över till förnybar energi, vilket säkerställer ett mer hållbart förhållningssätt till AI-modellutveckling. Dessutom, med tanke på placeringen av datacenter och träningsanläggningar, så kan det gynna regioner med riklig mängd förnybar energi och svalt klimat som Sverige, för att ytterligare förbättra hållbarheten för generativ AI.

Att uppmuntra samarbeten mellan forskare, branschexperter och beslutsfattare kan driva innovationer som främjar energieffektiva metoder inom generativ AI. Att dela bästa praxis, utveckla standarder och bedriva ytterligare forskning för att minska energianvändningen kommer att bidra till en mer hållbar framtid för AI-teknik.

Slutord

Generativ AI har en enorm potential att revolutionera olika branscher och understödja kreativa ansträngningar. De energiutmaningar som är förknippade med träning och implementering av dessa modeller kräver dock ansvarsfulla metoder. Genom att optimera hårdvaruinfrastruktur, implementera effektiva lösningar för kylning och energihantering, prioritera förnybar energi, beakta hela livscykeln, optimera modeller och mjukvara och främja forskningssamarbete kan vi hitta en balans mellan att utnyttja kraften i generativ AI och säkerställa en hållbar AI ekosystem för kommande generationer.

Och RISE är på fallet

Vi på ICE datacenter hjälper dig gärna om fler frågor om AI, datacenter och energianvändning dyker upp — hör av dig om du har några frågor!

CAPTCHA

* Obligatoriskt Genom att skicka in formuläret behandlar RISE dina personuppgifter.