MI-robbanás: az adatközpontok energiaéhsége a háromszorosára nőhet

2025. április 17. 22:46

Az MI-rendszerek energiaigénye 2030-ra a globális áramfogyasztás 3-4 százalékát is elérheti, miközben egy nagy nyelvi modell betanítása elképesztő mennyiségű CO₂-t termel.

2025. április 17. 22:46
null

A mesterséges intelligencia (MI) rohamos térhódítása nemcsak technológiai, hanem környezeti átalakulást is magával hoz. Az MI-rendszerek – különösen a nagy nyelvi modellek (LLM-ek) – betanítása és működtetése ugyanis igencsak energiaigényes, ami az adatközpontok áramfogyasztásának drámai növekedését okozza. De érdemes megnézni a számokat részletesen is.  

Mahmut Kandemir, a Penn State Egyetem professzora és energiahatékony rendszerek szakértője szerint az Egyesült Államokban 2023-ban az adatközpontok az ország villamosenergia-fogyasztásának 4 százalékát használták fel, ami 2028-ra megháromszorozódhat. Globálisan pedig 2030–2035-re a világ áramfogyasztásának a 3-4 százalékát is elérheti.  

Az MI-rendszerek, különösen az LLM-ek – mint a ChatGPT, a Grok, a Perplexity, a Gemini, a DeepSeek és társaik – betanítása és működtetése óriási számítási kapacitást igényel, amelyet ma már mintegy 180–220 millió fő használ nap mint nap. Egyetlen modellé hónapokon át több ezer grafikus feldolgozóegység (GPU) vagy ún. tensor feldolgozóegység (TPU) folyamatos működését követeli meg. (A TPU egy speciális, mesterségesintelligencia- és gépi tanulási feladatokra optimalizált processzor, amelyet a Google fejlesztett ki.) E számítások nemcsak jelentős áramfogyasztók, de nagy mennyiségű vizet használnak fel a szerverek hűtéséhez, továbbá üvegházhatású gázokat bocsátanak ki, és elektronikai hulladékot is termelnek.  

A Nemzetközi Energiaügynökség (IEA) tavalyi jelentése szerint az adatközpontok a világ villamosenergia-fogyasztásának körülbelül 1,5 százalékát teszik ki, ebből az MI-re dedikált rendszerek nagyjából 15 százalékkal részesülnek.  

Az utóbbi arány 2030-ra 19-20 százalékra nőhet, ami a mesterséges intelligencia energiaigényének jelentős, de nem kizárólagos szerepét mutatja az adatközpontok fogyasztásában.  

Az MI-modellek komplexitása ugyanis folyamatosan nő, ami tovább növeli a számítási erőforrások iránti igényt. Például a legújabb generatív modellek betanítása során a számítási kapacitás évente akár a tízszerese is lehet, ami az energiafogyasztás exponenciális emelkedését eredményezi, ha a folyamat éveken át hasonló ütemben halad. Az Egyesült Államokban, ahol a világ adatközpontjainak jelentős része található, ez már most érezhető:  

2023-ban az ország áramfogyasztásának 4 százalékát az adatközpontok használták fel, 2024-ben ez az arány a becslések szerint megközelíthette az 5-öt, de 2028-ra elérheti a 12-t is! 

Globálisan a növekedés kevésbé drámai, de az adatközpontoknak a világ áramfogyasztásából felhasznált 3-4 százalékos aránya 2030–2035-re jelentős környezeti terhelést hoz. 

Egy nagy nyelvi MI-modell hónapokon át tartó betanítása során annyi szén-dioxid keletkezhet, mint egy transzatlanti repülőút esetén. Emellett a szerverek hűtéséhez szükséges vízfelhasználás sem elhanyagolható: egy közepes méretű adatközpont napi több millió liter vizet igényelhet, ami a vízhiányos régiókban további problémákat okoz. Végül az elavult hardverek – például GPU-k és TPU-k – cseréje jelentős elektronikai hulladékot termel, amelynek az újrahasznosítása globális szinten jelenleg nem megoldott. 

Érdekes, hogy például Írországban, az EU egyik legnagyobb adatközponti csomópontjában ezek a komplexumok 2023-ban az ország áramfogyasztásának már a 21 százalékát tették ki, szemben a 2015-ös 5-tel, ami pedig komoly nyomást helyez az energiarendszerre. 

Megoldások az energiaéhség csökkentésére 

Mahmut Kandemir és más szakértők szerint több irányból is megközelíthető az MI energiafogyasztásának csökkentése. Az egyik legfontosabb megoldás az energiatakarékos hardverek fejlesztése. A neuromorf chipek (lásd keretes írásunkat), amelyek az emberi agy működését utánozzák, jelentősen mérsékelhetik az energiaigényt a hagyományos GPU-khoz képest. Ehhez hasonlóképpen az optikai processzorok, amelyek fényt használnak az adatok feldolgozására, szintén ígéretesek. Ezek a technológiák azonban még fejlesztés alatt állnak, és piaci bevezetésük, széles körű elterjedésük évekbe telik.  

A szoftveres optimalizálás is lényeges: az LLM-ek méretének csökkentése, az úgynevezett „modellkarcsúsítás” (model pruning) és a specializált, kisebb energiaigényű MI-k fejlesztése lehetővé teheti, hogy kevesebb erőforrással érjünk el hasonló eredményeket. Például  

egy adott célfeladatra specializált megoldás sokkal kevesebb energiát igényel, mint egy általános célú, nagy nyelvi modell.  

A megújuló energiaforrások használata szintén elengedhetetlen. Az olyan vállalatok, mint a Google és a Microsoft, már most jelentős összegeket fektetnek szél-, nap- vagy nukleáris energiára épülő adatközpontokba, de a globális energiamix még mindig erősen fosszilisalapú. Az átállás gyorsítása érdekében kormányzati ösztönzőkre és szabályozásra is szükség van, különösen az EU-ban, ahol a fenntarthatóság prioritás. 

Neuromorf és optikai chipek: 30–100, de akár ezerszeres megtakarítás 

A mesterséges intelligencia adatközpontjainak rohamosan növekvő energiaigénye sürgős megoldásokat követel. Az energiatakarékos MI-chipek, különösen a neuromorf és optikai (fotonikus) architektúrák fejlesztése rövid távon megoldhatja ezt a kihívást, jelentős energiamegtakarítást kínálva. Ám fontos, hogy az alábbiakban leírt számok csak egységnyi számítási kapacitásra vonatkoznak, azaz ha az MI iránti igény a mai sokszorosára nő, ha az összképet nézzük, akkor a 30-50-szeres vagy százszoros energiamegtakarítás nagy része elvész. 

A neuromorf chipek mindenesetre ígéretesek, hiszen az emberi agy működését utánozzák neuron- és szinapszisszerű struktúrákkal, amelyek egyetlen egységbe integrálják a számításokat és a memóriát. Ez a megközelítés akár ezerszeres (!) energiahatékonyságot is elérhet a jelenlegi szilíciumalapú MI-chipekhez képest, különösen az úgynevezett edge eszközökben (amik a számítást az adatok keletkezésének helyéhez közel végzik) és a valós idejű alkalmazásokban, például önvezető járművekben, IoT-rendszerekben, okostelefonokon, ipari rendszerekben. A neuromorf chipek jelenleg prototípus- és pilotgyártási fázisban vannak, de az IBM, az Intel és a Qualcomm már aktívan dolgozik a technológia piaci bevezetésén. A neuromorf chipek piaca a becslések szerint 2030-ra több százmilliárd dollárosra nőhet, ami az MI-infrastruktúra energiafogyasztásának drasztikus csökkenését vetíti előre. 

A másik nagy fejlesztési irány az optikai chipek. Ezek a fény sebességét és alacsony hőtermelését használják ki, így akár 30-szoros energiahatékonyságot és 50-szeres számítási sebességet kínálnak a hagyományosakhoz képest. Az első fotonikus MI-chipek szintén pilotgyártási fázisban vannak, és a cél az, hogy 2030-ra az adatközpontok energiahatékonyabb pilléreivé váljanak. Ezek különösen alkalmasak nagyobb adatmennyiségű feladatokra, például nagy nyelvi modellek betanítására és működtetésére. Azonos számítási igény esetén a fenti újdonságok az adatközpontok energiafogyasztásának 70–90 százalékos csökkenését eredményezhetik, legalábbis azokon a területeken, ahol a technológia elterjed. 

Európai lépések már történtek 

Az EU 2023-ban felülvizsgált Energiahatékonysági Irányelve (EED) szerint 2024. május 15-től minden, évi 500 kW feletti fogyasztású adatközpont – Magyarországon körülbelül egy tucat ilyen található – köteles jelentést tenni az energiahatékonysági mutatóiról. Ezek az energiafogyasztást, a Power Usage Effectiveness (PUE)-értéket, a hőmérsékleti beállításokat, a hulladékhő hasznosítását, a vízfelhasználást és a megújuló energiaforrások arányát is tartalmazzák. Ez a szabályozás elősegíti az átláthatóságot és az energiahatékonyság növelését, de a jelenlegi hatalmas ütemű keresletnövekedés mellett mindenképpen további lépésekre van szükség. 

A régió országai, köztük Magyarország, Lengyelország és Csehország egyre több adatközpontot vonzanak a relatíve alacsony energiaárak és a kedvező földrajzi adottságok miatt. Hazánkban például az adatközponti hulladékhő hasznosítása – például távfűtési rendszerekbe történő integrálása – jelentős potenciállal kecsegtet, de ehhez drága infrastrukturális fejlesztések is kellenének.  

A régió egyetemei és kutatóintézetei ugyanakkor fontos szerepet játszhatnak az innovációban. Kandemir hangsúlyozza, hogy az akadémiai szféra és az ipar közötti interdiszciplináris együttműködés nélkülözhetetlen a zöld-MI-technológiák fejlesztéséhez. Magyarországon a nagy műszaki egyetemeken folynak egyedi munkák az adatközponti fenntarthatóság javítása terén, de a finanszírozás és a nemzetközi partnerségek bővítése nagyobb prioritást is élvezhetne. 

Visszahozzák a befektetett energiát? 

Bár az MI energiafogyasztásának csökkentésére számos ígéretes megoldás létezik, azok megvalósítása nem egyszerű. Az energiatakarékos chipek fejlesztése költséges és időigényes, a megújuló energiaforrásokra való tömeges átállás pedig nagy beruházásokat és hosszú ágazati koordinációt igényel. Ráadásul az MI iránti kereslet olyan gyorsan nő, hogy ezek a hatékonysági fejlesztések közel sem tudják ellensúlyozni a fogyasztási ütem emelkedését. Az IEA becslése óvatosabb, mint a Penn kutatása, az előbbi szerint az adatközpontok energiaigénye 2030-ra megduplázódhat, még akkor is, ha a hatékonyság javul. 

Ne felejtsük el:  

a sok beágyazott MI (pl. önvezetés, okostelefonok, robotok, chatbotok, MI-s netes keresés stb.) okán az okos robotválaszok iránti globális igény a következő 5-6 évben a négyszeresére is nőhet.  

Tehát az szinte bizonyos, hogy a mesterséges intelligenciához köthető világszintű energiafogyasztás még az óriási hatékonyságjavulást és optimalizálást követően sem fog csökkenni. Az már más kérdés, hogy 

a sok-sok okos MI tudja-e úgy vezérelni az életünket, benne például a járműveinket vagy az épületeink, a gyáraink, a kereskedelmünk és a világunk energiaigényét, illetve innovációit, hogy „visszahozza” azt a többletfogyasztást, ami az elektromos agyak működtetésével jár. 

Források: 

- Can artificial intelligence growth and sustainability go hand in hand?  

- The best large language models (LLMs) in 2025  

- The transformative potential of AI depends on energy 

- Energy Efficiency Directive  

- Data Centers Will Use Twice as Much Energy by 2030—Driven by AI 

Kapcsolódó:

Címlapfotó: MTI/MTVA

 

 


További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.

Összesen 13 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
SzkeptiKUSS
2025. április 18. 13:20
A vízfelhasználást, mint kártétemény, nem értem. A víz nem veszik el, még akkor sem, ha öntözésre használod.
survivor
2025. április 18. 12:43
Ebben hol a körny. véd ? Amúgy, ha meg nincs fúziós erőmű, addig nem lesz energiabőseg. Btw: 8000 M ember IVÓVIZE nem fontosabb icipicit ? MI nélkül meglennénk. A bolygóközi utazások NEM az AI miatt nem lehetségesek. Az időényező, a sugárzás, a grav itávió, a bezártság miatt.
gullwing
2025. április 18. 08:57
Egy nagy nyelvi MI-modell hónapokon át tartó betanítása során annyi szén-dioxid keletkezhet, mint egy transzatlanti repülőút esetén. Emellett a szerverek hűtéséhez szükséges vízfelhasználás sem elhanyagolható Ja a sok hülye informatikus termeli a CO2-öt... Mert az atomerőmű az biz nem... de a hülyék ezt sem tudják. A víz kérdése: zárt rendszerben használt víz nem vész el.. lásd atomerőművek (a radioaktív elemeket tartalmazó primer köri víz zárt rendszerben kering)
mi-egy-nagy-vibralo-tojast-hasznalunk-2
2025. április 18. 08:25
A forrásként megadott oldalakra mutató öt linkből 4 szar. Az első így kéne kinézzen: www.psu.edu/news/research/story/qa-can-artificial-intelligence-growth-and-sustainability-go-hand-hand a második: zapier.com/blog/best-llm etc, etc. A végükön ennyi felesleg van: %C2%A0... a nem törhető szóköz unicode karaktere... de minek???
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!