Dátové centrá spotrebujú viac energie, než ktokoľvek očakával. Priemysel sa snaží dobehnúť zameškané.

2026-04-29 - Nechajte mi správu

Roky, príbeh odátové centrumspotreba energie sledovala predvídateľný oblúk. Digitalizácia rástla, samozrejme, ale zvýšenie efektívnosti vďaka lepším serverom, virtualizácii a konsolidácii cloudu udržalo celkovú spotrebu elektriny prekvapivo na nízkej úrovni. Globálny dopyt po energii dátových centier sa počas väčšej časti desaťročia pohyboval okolo 1 percenta celkovej spotreby elektriny – zhruba 200 terawatthodín ročne.

Tá éra sa končí.

Konvergencia generatívnej AI, ťažba kryptomien, edge computing a exponenciálny rast pripojených zariadení prelomili starú krivku efektivity. Odhady odvetvia teraz ukazujú, že dopyt po energii dátových centier rastie ročným tempom, aké sme nezaznamenali od začiatku 21. storočia. V niektorých regiónoch – Írsko, Severná Virgínia, Singapur – už dátové centrá predstavujú 15 až 25 percent celkovej spotreby elektriny, čo núti regulátory uvaliť moratórium na novú výstavbu.

V tomto kontexte sa voľby infraštruktúry, ktoré sa kedysi zdali ako technické detaily – architektúra chladenia, topológia distribúcie energie, plánovanie hustoty stojanov – stali rozhodnutiami zasadacej miestnosti. Náklady na energiu už nie sú riadkovou položkou. Je to obmedzenie rastu.


Jednoduchá metrika, ktorá všetko zmenila

Power Usage Effectiveness alebo PUE je štandardnou metrikou efektívnosti v odvetví dátových centier už takmer dve desaťročia. Je to jednoduchý pomer: celkový výkon zariadenia vydelený výkonom IT zariadenia.

Hodnota PUE 2.0 znamená, že na každý watt napájajúci servery a úložisko pripadá ďalší watt na chladenie, osvetlenie, straty pri konverzii energie a iné režijné náklady. Hodnota PUE 1,2 znamená, že réžia spotrebuje iba 0,2 wattu na watt IT.

Priemysel má široko akceptované úrovne založené na PUE:

úroveň PUE DCiE Čo to znamená
Platinum <1,25 >0,80 Svetová účinnosť, zvyčajne vyžaduje voľné chladenie alebo chladenie kvapalinou
Zlato 1,25 – 1,43 0,70 – 0,80 Veľmi efektívny, dosiahnuteľný s moderným dizajnom v miernom podnebí
Strieborná 1,43 – 1,67 0,60 – 0,70 Prijateľné pre staršie zariadenia alebo teplejšie podnebie
Bronzová 1,67 – 2,00 hod 0,50 – 0,60 Typické pre staršie dátové centrá bez väčších úprav
Spravodlivé 2.00 – 2.50 0,40 – 0,50 Slabá účinnosť, vysoké prevádzkové náklady
Chudák >2,50 <0,40 Kritická neefektívnosť, pravdepodobne si vyžaduje okamžitú pozornosť

Problém je v tom, že mnohé organizácie v skutočnosti svoje PUE nepoznajú. Odhadujú. Hádajú. Alebo merajú len na hlavnom elektromere a zvyšok predpokladajú.

Prieskum z roku 2023 zistil, že takmer 40 percent prevádzkovateľov dátových centier nikdy nemeralo PUE na úrovni stojanov. Medzi tými, ktorí to urobili, bol rozdiel medzi hláseným a skutočným PUE v priemere 0,3 bodu - dosť na to, aby sa zariadenie presunulo zo zlata na striebro bez toho, aby si to niekto všimol.

Kam v skutočnosti ide sila

Pochopenie, prečo sa PUE tak výrazne líši, začína pohľadom na to, kde z dátového centra odchádza napájanie.

V typickom vzduchom chladenom zariadení s PUE okolo 1,8 vyzerá porucha približne takto:

  • IT vybavenie (servery, úložiská, siete): 55 – 60 percent
  • Chladenie (jednotky CRAC/CRAH, chladiče, čerpadlá, suché chladiče): 30-35 percent
  • Rozdelenie energie (UPS, transformátory, straty PDU): 5-8 percent
  • Osvetlenie a iné zaťaženie zariadení: 2-4 percentá

Chladiaca záťaž je najväčšia premenná. Zariadenie v miernom podnebí, ktoré využíva vonkajší vzduch na voľné chladenie, môže minúť iba 15 percent svojej energie mimo IT na chladenie. Rovnaké zariadenie v tropickom podnebí s mechanickým chladením po celý rok môže minúť 40 percent.

To je dôvod, prečo poskytovatelia kolokácie inzerujú PUE na úrovni zariadenia, ale dodávajú PUE na merači zákazníka – rôzne čísla, rôzne dôsledky. To všetko platí zákazník.

Posun od tradičnej k cloudovej infraštruktúre

Tradičná správa dátového centra predpokladala relatívne statické prostredie. Regály sa plnili mesiace alebo roky. Chladenie bolo možné nastaviť pomaly. Rozvod energie bol od prvého dňa predimenzovaný.

Oblaková éra zmenila predpoklady. Regály sa teraz zapĺňajú dňami. Pracovné zaťaženie sa presúva medzi servermi automaticky. Klastre AI s vysokou hustotou môžu čerpať trojnásobok energie v porovnaní so susednými univerzálnymi výpočtovými stojanmi.

Tieto zmeny si vynútili prehodnotenie riadenia infraštruktúry. Vynikajú tri trendy.

Po prvé, hustota rastie nerovnomerne.Štandardný serverový rack pred desiatimi rokmi mal 5-8 kilowattov. Dnes majú univerzálne stojany 10-15 kilowattov. Vysokovýkonné výpočtové a AI tréningové stojany bežne presahujú 30 kilowattov na stojan. Niektoré presahujú 50 kilowattov.

To vytvára problémy s tepelným manažmentom, ktoré vzduchové chladenie len ťažko rieši. Pri výkone 20 kilowattov na stojan zostáva chladenie vzduchom účinné pri správnom obmedzení. Pri 30 kilowattoch sa stáva okrajovým. Pri výkone 40 kilowattov a viac sa chladenie kvapalinou mení z voliteľného na potrebné.

Po druhé, plánovanie kapacít sa stalo prediktívnym.Stará metóda – kúpte si väčšiu kapacitu, ako je potrebné a nechajte ju nečinne – už nefunguje vo veľkom rozsahu. Nevyužitá kapacita má kapitálové náklady aj náklady na priebežnú údržbu.

Moderné systémy správy infraštruktúry využívajú historické údaje a prognózy pracovného zaťaženia na predpovedanie, kedy sa minie napájanie, chladenie alebo miesto v stojane. Najlepšie systémy môžu odporučiť, či prekonfigurovať existujúcu kapacitu alebo objednať nový hardvér, niekoľko dní alebo týždňov predtým, ako sa obmedzenie stane kritickým.

Po tretie, požiadavky na viditeľnosť majú naprpandoval.Tradičné dátové centrum môže sledovať výkon na úrovni PDU. Moderné zariadenie potrebuje viditeľnosť na úrovni racku, niekedy na úrovni servera a čoraz viac na úrovni pracovného zaťaženia – vedieť, ktorý virtuálny stroj alebo kontajnerové disky spotrebúvajú energiu.

Vrstva DCIM: Čo v skutočnosti robí

Infraštruktúra dátového centraSoftvér na správu (DCIM) existuje už viac ako desaťročie, no prijatie zostáva nerovnomerné. Menej ako polovica podnikových dátových centier má nasadený úplný systém DCIM. Mnohé z nich využili len zlomok jeho schopností.

Správne implementovaný systém DCIM robí štyri veci:

Správa majetku.Každý server, prepínač, PDU a chladiaca jednotka sú sledované v databáze správy konfigurácie (CMDB). Poloha, výkon, sieťové pripojenia, história údržby – to všetko. Znie to jednoducho, ale mnohé organizácie stále sledujú aktíva v tabuľkách, ktoré medzi aktualizáciami prechádzajú mesiace.

Monitorovanie v reálnom čase.Odber energie na úrovni PDU alebo racku, teplota a vlhkosť v napájacích a vratných bodoch, stav chladiaceho systému, stav batérie UPS. Alarmy sa spúšťajú, keď sa parametre odchyľujú od nastavených hodnôt. Cieľom je odhaliť problémy skôr, ako spôsobia prestoje.

Kapacitné plánovanie.Systém vie, koľko energie a chladiacej kapacity je k dispozícii, koľko sa používa a koľko je rezervovaných pre budúce nasadenie. Môže modelovať vplyv pridania nového racku s vysokou hustotou alebo vyradenia sady starších serverov.

Vizualizácia.Digitálne dvojča dátového centra - stojan po stojane, dlaždice po dlaždici - zobrazuje aktuálne podmienky a umožňuje operátorom simulovať zmeny. Pridanie 10 kilowattov záťaže do riadka tri, stĺpec štyri: presahuje to chladiacu kapacitu? Systém odpovie skôr, ako niekto pohne zariadením.

Matematika efektívnosti, ktorá skutočne funguje

Zníženie spotreby energie dátového centra nie je záhadou. Metódy sú dobre pochopené. Výzvou je implementačná disciplína.

Zvýšte teplotu privádzaného vzduchu.Väčšina dátových centier beží za studena – 18 až 20 stupňov Celzia na návrate chladiacej jednotky – pretože to operátori vždy robili. Pokyny ASHRAE teraz odporúčajú 24 až 27 stupňov. Každé zvýšenie stupňa znižuje chladiacu energiu približne o 4 percentá. Prevádzka pri teplote 26 stupňov namiesto 20 stupňov ušetrí 20 – 25 percent chladiaceho výkonu.

Eliminujte miešanie horúceho a studeného vzduchu.Kontajnment v horúcej uličke, izolovanej uličke v studenej uličke alebo zvislé výfukové potrubie núti chladiaci vzduch ísť tam, kde je to potrebné, namiesto toho, aby krátkodobo cirkuloval cez prednú časť stojanov. Samotná izolácia zvyčajne znižuje chladiacu energiu o 15-25 percent.

Používajte pohony s premenlivou rýchlosťou.Ventilátory a čerpadlá s konštantnými otáčkami strácajú energiu pri čiastočnom zaťažení. Pohony s premenlivou rýchlosťou prispôsobujú prietok vzduchu a prietok vody skutočným požiadavkám. Doba návratnosti rekonštrukcie je zvyčajne 1-3 roky.

Optimalizujte prevádzku UPS.Väčšina systémov UPS beží v režime dvojitej konverzie nepretržite – konvertuje striedavý prúd na jednosmerný a späť na striedavý, aj keď je elektrická sieť čistá. Moderné systémy UPS sa môžu prepnúť do ekologického režimu, keď to kvalita elektrickej energie dovoľuje, pričom dosahujú účinnosť 99 percent namiesto 94 – 96 percent. Kompromisom je krátky čas prenosu na batériu, ak dôjde k výpadku elektrickej energie. Pre IT záťaže s napájacími zdrojmi určenými na takéto prenosy je riziko minimálne.

Prijať distribúciu vyššieho napätia.Distribúcia energie pri 415 V namiesto 208 V znižuje distribučné straty približne o 25 percent. Vyžaduje si to kompatibilné jednotky PDU a napájacie zdroje serverov, ale mnohé moderné zariadenia to podporujú.

Ako vyzerá efektívnosť v skutočnom svete

Spoločnosť Shangyu CPSY, high-tech podnik so zameraním na infraštruktúru dátových centier, uvádza PUE 1,3 pre svoje modulárne riešenia dátových centier. To zaraďuje spoločnosť do zlatej úrovne a posúva sa smerom k platine.

Tvrdená 25-percentná úspora energie v porovnaní s konvenčnými konštrukciami pochádza z viacerých faktorov. Modulárne UPS systémy s 97,4-percentnou účinnosťou na systémovej úrovni znižujú distribučné straty, ktoré inak bežia o 15-20 percent. Presné klimatizačné zariadenia s kompresormi s premenlivými otáčkami a EC ventilátormi upravujú chladiaci výkon tak, aby zodpovedal skutočnej tepelnej záťaži, namiesto toho, aby bežal na pevnú kapacitu. A fyzické usporiadanie – horúca ulička, optimálne rozmiestnenie regálov, zvýšená podlaha s perforovanými dlaždicami správnej veľkosti – rieši riadenie prúdenia vzduchu, ktoré podkopáva mnohé inak efektívne zariadenia.

Portfólio certifikácie spoločnosti zahŕňa ISO 9001 (manažment kvality) a ISO 27001 (manažment bezpečnosti informácií). Jeho zákaznícke nasadenia zahŕňajú partnerstvá s Huawei, ZTE a Inspur s exportnými inštaláciami v Spojených štátoch, Spojenom kráľovstve, Nemecku, Francúzsku a Austrálii.

Kde do obrazu vstupuje chladenie kvapalinou

Po celé roky bolo chladenie kvapalinou špecializovanou technológiou pre superpočítačové centrá. To sa rýchlo mení.

Tréningové klastre AI využívajúce NVIDIA H100 alebo pripravované GPU B200 generujú 30-50 kilowattov na stojan v čisto vzduchom chladených konfiguráciách. Pri týchto hustotách vzduchové chladenie vyžaduje vysoké rýchlosti prúdenia vzduchu – hlasité ventilátory, hlboké stojany a stále okrajovú tepelnú reguláciu.

Kvapalné chladenie priamo na čip odoberá 60-80 percent tepla zo zdroja. Čipy bežia chladnejšie. Ventilátory bežia pomalšie. Izbová klimatizácia spracováva iba zvyšné teplo z napájacích zdrojov, pamäte a iných komponentov.

Zvýšenie účinnosti je značné. Zariadenia s chladením priamo na čip uvádzajú hodnoty PUE 1,1 až 1,2. Kompromisom sú vyššie kapitálové náklady, zložitejšie riadenie úniku a potreba úpravy vody na úrovni zariadení.

Plne ponorné chladenie – ponorenie celých serverov do dielektrickej tekutiny – posúva PUE pod 1,1, ale zostáva špecializované. Väčšina komerčných dátových centier najskôr prijme chladenie priamo na čip, neskôr ponorenie pre špecifické zóny s vysokou hustotou.

Platforma dátového centra SHANGYU obsahuje ustanovenia pre architektúru chladenia vzduchom aj kvapalinou, pričom sa uznáva, že budúce nasadenia s vysokou hustotou si budú vyžadovať tepelné riadenie na báze tekutín bez ohľadu na dizajn zariadenia.

Manažment Gap: Od reaktívneho k prediktívnemu

Väčšina prevádzkových tímov dátových centier stále pracuje reaktívne. Zaznie alarm. Niekto vyšetruje. Použije sa oprava. Cyklus sa opakuje.

Prechod na prediktívne riadenie si vyžaduje tri schopnosti, ktoré mnohým organizáciám chýbajú.

Kompletné konfiguračné údaje.Základom je vedieť, čo je v dátovom centre – každý server, každý prepínač, každý PDU, každá chladiaca jednotka. Bez presných údajov CMDB je plánovanie kapacity hádanie.

Granulovaná telemetria.Meranie výkonu na úrovni stojana je minimum. Meranie výkonu na server je lepšie. Najlepšie, ale najťažšie dosiahnuteľné je pripisovanie výkonu na úrovni pracovného zaťaženia.

Analýzy, ktoré rozlišujú signál od šumu.Nárast teploty v jednom stojane môže znamenať zlyhanie ventilátora. Nárast teploty v polovici dátového centra môže znamenať poruchu chladiča. Systém musí podľa toho rozlišovať a odporúčať odpovede.

Platforma DCIM od SHANGYU poskytuje podporu zariadení SNMP a Modbus, webové a Windows aplikačné rozhrania a integráciu so sieťovými kamerami pre zobrazovanie spúšťané udalosťami. Stanovené ciele sú jasné: znížiť nákladné prestoje, znížiť denné prevádzkové náklady prostredníctvom úplnej kontroly životného prostredia a zlepšiť viditeľnosť a sledovateľnosť manažmentu.

Prečo na tom záleží aj mimo poschodia dátového centra

Spotreba energie dátových centier predstavuje zhruba 1 percento celosvetovej spotreby elektrickej energie. Toto číslo znie malé, kým sa nedá do kontextu. Je to zhruba ekvivalentné celkovej spotrebe elektriny v Spojenom kráľovstve.

Ešte dôležitejšie je, že tempo rastu sa zrýchľuje. Priemyselné projekcie ukazujú, že dopyt po energii dátových centier sa do roku 2030 zvýši o 10 až 15 percent ročne, čo je spôsobené AI, prijatím cloudu a pokračujúcim rozširovaním pripojených zariadení. Pri takomto tempe by dátové centrá do konca desaťročia spotrebovali 3-4 percentá celosvetovej elektriny.

Zvýšenie efektívnosti, ktoré udržalo spotrebu energie na rovnakej úrovni za predchádzajúce desaťročie, pochádzalo z virtualizácie serverov (zníženie počtu fyzických serverov), zlepšenej efektívnosti disku (prechod z rotujúcich diskov na SSD) a širokého nasadenia voľného chladenia (používanie vonkajšieho vzduchu namiesto mechanického chladenia). Tie nízko visiace plody boli z veľkej časti zozbierané.

Ďalšia vlna efektívnosti bude pochádzať z kvapalinového chladenia, distribúcie vyššieho napätia, riadenia chladenia optimalizovaného pomocou AI a – čo je možno najdôležitejšie – lepšieho zosúladenia medzi kapacitou infraštruktúry a skutočným zaťažením IT. Tento posledný kus si vyžaduje typ viditeľnosti v reálnom čase a prediktívnej analýzy, ktorú poskytujú systémy DCIM, ale len málo zariadení ju plne využíva.

Niekoľko otázok o vašej vlastnej infraštruktúre, ktoré sa oplatí položiť

Poznáte svoje skutočné PUE, nie číslo na hárku so špecifikáciami?Ak ste nemerali na výstupe UPS a na vstupe IT zariadenia, tak neviete. Rozdiel je vaša skutočná réžia.

Bojujú vaše chladiace systémy medzi sebou?V mnohých dátových centrách sú jednotky CRAC nastavené s prekrývajúcimi sa pásmami teploty a vlhkosti. Jedna jednotka odvlhčuje, zatiaľ čo druhá zvlhčuje. Jeden chladí, zatiaľ čo druhý sa ohrieva. Nie je to nič neobvyklé. Tiež to nie je efektívne.

Aký je nečinný odber energie vašich serverov?Priemyselné údaje ukazujú, že typické podnikové servery spotrebúvajú 30 – 40 percent svojho špičkového výkonu, keď nič nerobia. Vypnutie alebo prepnutie nepoužívaných serverov do režimu spánku je najvyššia dostupná miera efektívnosti návratnosti investícií. Je tiež najviac prehliadaná.

Mohli by ste zvýšiť teplotu privádzaného vzduchu o dva stupne bez toho, aby ste porušili špecifikácie zariadenia?Pravdepodobne áno. Väčšina zariadení je dimenzovaná na vstupné teploty 25-27 stupňov. Väčšina dátových centier beží pri teplote 20-22 stupňov. Táto šesťstupňová medzera predstavuje roky zbytočnej chladiacej energie.

Kedy ste naposledy overili efektivitu svojej UPS?Účinnosť na typovom štítku sa meria pri plnom zaťažení s perfektným účinníkom. Skutočná účinnosť pri čiastočnom zaťažení s účinníkom v reálnom svete môže byť o 5 až 10 bodov nižšia.





Predchádzajúce:Žiadne novinky

Odoslať dopyt

X
Súbory cookie používame, aby sme vám poskytli lepší zážitok z prehliadania, analyzovali návštevnosť stránok a prispôsobili obsah. Používaním tejto stránky súhlasíte s naším používaním cookies. Zásady ochrany osobných údajov