Центри података троше више енергије него што је ико очекивао. Индустрија се утркује да сустигне.

2026-04-29 - Оставите ми поруку

Годинама се прича одата центарпотрошња енергије пратила је предвидљив лук. Дигитализација је, наравно, расла, али повећање ефикасности од бољих сервера, виртуелизације и консолидације облака задржало је укупну потрошњу електричне енергије на изненађујућем нивоу. Глобална потражња за енергијом центара података кретала се око 1 одсто укупне потрошње електричне енергије — отприлике 200 терават-сати годишње — током већег дела деценије.

Та ера се завршава.

Конвергенција генеративне вештачке интелигенције, рударења криптовалута, рачунарства ивица и експоненцијалног раста повезаних уређаја прекинула је стару криву ефикасности. Процене индустрије сада показују да потражња за енергијом центара података расте по годишњим стопама које нису виђене од раних 2000-их. У неким регионима — Ирској, Северној Вирџинији, Сингапуру — центри података већ чине 15 до 25 процената укупне потрошње електричне енергије, што је приморало регулаторе да уведу мораторијум на нову изградњу.

У том контексту, инфраструктурни избори који су некада изгледали као технички детаљи — архитектура хлађења, топологија дистрибуције енергије, планирање густине рек-ова — постали су одлуке у сали за састанке. Трошкови енергије више нису ставка. То је ограничење раста.


Једноставна метрика која је све променила

Ефикасност употребе енергије, или ПУЕ, је стандардна метрика ефикасности индустрије центара података скоро две деценије. То је једноставан однос: укупна снага објекта подељена снагом ИТ опреме.

ПУЕ од 2,0 значи да за сваки ват који напаја сервере и складиште, још један ват иде на хлађење, осветљење, губитке конверзије енергије и друге трошкове. ПУЕ од 1,2 значи да надземни троше само 0,2 вата по ИТ вату.

Индустрија има широко прихваћене нивое засноване на ПУЕ:

Ниво ПУЕ ДЦиЕ Шта то значи
Платинум <1.25 >0,80 Ефикасност светске класе, обично захтева слободно хлађење или течно хлађење
Злато 1,25 – 1,43 0,70 – 0,80 Веома ефикасан, остварив са модерним дизајном у умереним климатским условима
Сребро 1,43 – 1,67 0,60 – 0,70 Прихватљиво за старије објекте или топлију климу
Бронза 1.67 – 2.00 0,50 – 0,60 Типично за старе центре података без већих реконструкција
Сајам 2.00 – 2.50 0,40 – 0,50 Слаба ефикасност, високи оперативни трошкови
Јадно >2,50 <0,40 Критична неефикасност вероватно захтева хитну пажњу

Проблем је у томе што многе организације заправо не знају свој ПУЕ. Они процењују. Погађају. Или мере само на главном водомеру и претпостављају остало.

Истраживање индустрије из 2023. показало је да скоро 40 процената оператера центара података никада није мерило ПУЕ на нивоу сталка. Међу онима који су то урадили, разлика између пријављеног и стварног ПУЕ-а је у просеку износила 0,3 поена — довољно да се објекат премести из златне у сребрну, а да то нико не примети.

Где моћ заправо иде

Разумевање зашто се ПУЕ толико разликује почиње са сагледавањем где енергија напушта центар података.

У типичном постројењу са ваздушним хлађењем са ПУЕ око 1,8, квар изгледа отприлике овако:

  • ИТ опрема (сервери, складиште, умрежавање): 55-60 процената
  • Хлађење (ЦРАЦ/ЦРАХ јединице, расхладни уређаји, пумпе, суви расхладни уређаји): 30-35 процената
  • Дистрибуција напајања (УПС, трансформатори, ПДУ губици): 5-8 процената
  • Осветљење и друга оптерећења објеката: 2-4 одсто

Оптерећење хлађења је највећа варијабла. Објекат у умереној клими који користи спољни ваздух за бесплатно хлађење могао би да потроши само 15 процената своје не-ИТ снаге на хлађење. Исти објекат у тропској клими са механичким хлађењем током целе године могао би потрошити 40 одсто.

Због тога провајдери колокације оглашавају ПУЕ на нивоу објекта, али испоручују ПУЕ на бројилу корисника – различити бројеви, различите импликације. Купац све то плаћа.

Прелазак са традиционалне на инфраструктуру обима у облаку

Традиционално управљање центром података претпостављало је релативно статичко окружење. Сталци су се пунили месецима или годинама. Хлађење се може полако подешавати. Дистрибуција струје је била превелика од првог дана.

Ера облака је променила претпоставке. Полице се сада попуњавају данима. Радна оптерећења се аутоматски пребацују на сервере. Кластери вештачке интелигенције високе густине могу да троше три пута већу снагу од суседних рачунарских рекова опште намене.

Ове промене су приморале на преиспитивање управљања инфраструктуром. Издвајају се три тренда.

Прво, густина расте неравномерно.Стандардни серверски сталак пре једне деценије трошио је 5-8 киловата. Данас регали опште намене троше 10-15 киловата. Сталци за рачунарство високих перформанси и АИ тренинг рутински премашују 30 киловата по сталку. Неки премашују 50 киловата.

Ово ствара изазове управљања топлотом које хлађење ваздуха тешко решава. При снази од 20 киловата по сталку, ваздушно хлађење остаје ефикасно уз одговарајућу заштиту. На 30 киловата постаје маргинално. Са 40 киловата и више, течно хлађење прелази са опционог на неопходно.

Друго, планирање капацитета је постало предиктивно.Стари метод — купите више капацитета него што је потребно и оставите га да мирује — више не функционише у великим количинама. Капацитет у празном ходу има и капиталне трошкове и трошкове текућег одржавања.

Савремени системи за управљање инфраструктуром користе историјске податке и предвиђање радног оптерећења како би предвидели када ће понестати струје, хлађења или простора у регалу. Најбољи системи могу препоручити да ли да реконфигуришете постојећи капацитет или наручите нови хардвер, данима или недељама пре него што ограничење постане критично.

Треће, захтеви за видљивост имају нпрпандед.Традиционални центар података може пратити снагу на ПДУ нивоу. Модерном објекту је потребна видљивост на нивоу сталка, понекад на нивоу сервера, а све више на нивоу радног оптерећења — знајући која виртуелна машина или контејнер покреће коју снагу.

ДЦИМ слој: шта он заправо ради

Инфраструктура дата центраСофтвер за управљање (ДЦИМ) постоји више од једне деценије, али усвајање остаје неуједначено. Мање од половине пословних центара података је применило комплетан ДЦИМ систем. Многи који су користили само делић његових могућности.

Правилно имплементиран ДЦИМ систем ради четири ствари:

Управљање имовином.Сваки сервер, прекидач, ПДУ и јединица за хлађење се прате у бази података за управљање конфигурацијом (ЦМДБ). Локација, називна снага, мрежне везе, историја одржавања — све то. Ово звучи основно, али многе организације и даље прате средства у табелама које пролазе месецима између ажурирања.

Праћење у реалном времену.Потрошња енергије на нивоу ПДУ или сталка, температура и влажност на доводним и повратним тачкама, статус система за хлађење, здравље УПС батерије. Аларми се активирају када параметри одступају од задатих вредности. Циљ је открити проблеме пре него што изазову застоје.

Планирање капацитета.Систем зна колико је снаге и капацитета хлађења доступно, колико је у употреби и колико је резервисано за будућу примену. Може да моделира утицај додавања новог сталка високе густине или повлачења скупа старијих сервера.

Визуелизација.Дигитални близанац центра података — сталак по сталак, плочица по плочица — приказује тренутне услове и омогућава оператерима да симулирају промене. Додавање 10 киловата оптерећења у ред три, колона четири: да ли то премашује капацитет хлађења? Систем одговара пре него што било ко помери опрему.

Математика ефикасности која заправо функционише

Смањење потрошње енергије центра података није мистериозно. Методе су добро схваћене. Изазов је дисциплина имплементације.

Повећајте температуру доводног ваздуха.Већина центара података ради на хладном — 18 до 20 степени Целзијуса на повратку расхладне јединице — јер су то оператери увек радили. Смернице АСХРАЕ сада препоручују 24 до 27 степени. Сваки степен повећања смањује енергију хлађења за отприлике 4 процента. Рад на 26 степени уместо на 20 степени штеди 20-25 процената снаге хлађења.

Елиминишите мешање топлог и хладног ваздуха.Контејнер у топлом пролазу, затворен у хладном пролазу или вертикални издувни канали приморавају ваздух за хлађење да иде тамо где је потребан уместо да кратко пролази кроз предњи део регала. Само задржавање обично смањује енергију хлађења за 15-25 процената.

Користите погоне са променљивом брзином.Вентилатори и пумпе са константном брзином троше енергију при делимичном оптерећењу. Погони са променљивом брзином усклађују проток ваздуха и воде са стварним потребама. Период поврата накнадне опреме је обично 1-3 године.

Оптимизујте рад УПС-а.Већина УПС система непрекидно ради у режиму двоструке конверзије — претварајући наизменичну струју у једносмерну и назад у наизменичну струју чак и када је струја чиста. Модерни УПС системи могу да се пребаце у еколошки режим када квалитет електричне енергије дозвољава, постижући ефикасност од 99 процената уместо 94-96 процената. Компромис је кратко време преласка на батерију ако струја нестане. За ИТ оптерећења са изворима напајања дизајнираним за такве преносе, ризик је минималан.

Усвојите дистрибуцију вишег напона.Дистрибуција снаге на 415 В уместо на 208 В смањује губитке у дистрибуцији за приближно 25 процената. Ово захтева компатибилне ПДУ и серверске изворе напајања, али многи савремени уређаји то подржавају.

Како изгледа ефикасност у стварном свету

Схангиу ЦПСИ Цомпани, високотехнолошко предузеће са фокусом на инфраструктуру центара података, извештава о ПУЕ од 1,3 за своја модуларна решења за дата центар. Ово ставља компанију у златну класу, крећући се ка платини.

Уштеда енергије од 25 процената у поређењу са конвенционалним дизајном потиче од више фактора. Модуларни УПС системи са ефикасношћу од 97,4 процената на нивоу система смањују губитке у дистрибуцији који иначе раде 15-20 процената. Прецизни клима уређаји са компресорима променљиве брзине и ЕЦ вентилаторима прилагођавају излаз хлађења тако да одговара стварном топлотном оптерећењу уместо да раде са фиксним капацитетом. А физички распоред — затвореност у врућим пролазима, оптимални размак између регала, подигнути под са перфорираним плочицама одговарајуће величине — бави се управљањем протоком ваздуха које подрива многе иначе ефикасне објекте.

Портфолио за сертификацију компаније укључује ИСО 9001 (управљање квалитетом) и ИСО 27001 (управљање безбедношћу информација). Његови клијенти укључују партнерства са компанијама Хуавеи, ЗТЕ и Инспур, са извозним инсталацијама у Сједињеним Државама, Уједињеном Краљевству, Немачкој, Француској и Аустралији.

Где течно хлађење улази у слику

Годинама је течно хлађење била ниша технологија за суперрачунарске центре. То се брзо мења.

Кластери за обуку вештачке интелигенције који користе НВИДИА Х100 или надолазеће ГПУ-ове Б200 генеришу 30-50 киловата по раку у конфигурацијама са чисто ваздушним хлађењем. При овим густинама, ваздушно хлађење захтева велике брзине протока ваздуха — гласне вентилаторе, дубоке полице и још увек маргиналну контролу температуре.

Течно хлађење директно на чип уклања 60-80 процената топлоте на извору. Чипови раде хладније. Навијачи трче спорије. Собни клима уређај подноси само преосталу топлоту из извора напајања, меморије и других компоненти.

Добитак ефикасности је значајан. Постројења са директним хлађењем на чип извештавају о ПУЕ вредностима од 1,1 до 1,2. Компромиси су већи капитални трошкови, сложеније управљање цурењем и потреба за третманом воде на нивоу објекта.

Потпуно урањајуће хлађење — потапање читавих сервера у диелектрични флуид — гура ПУЕ испод 1,1, али остаје специјализовано. Већина комерцијалних центара података ће прво усвојити директно хлађење на чип, а касније урањање за специфичне зоне високе густине.

СХАНГИУ платформа за дата центар укључује одредбе за ваздушно и течно хлађење архитектуре, увиђајући да ће будуће примене високе густине захтевати управљање топлотом засновано на флуидима, без обзира на дизајн објекта.

Јаз у управљању: од реактивног до предиктивног

Већина оперативних тимова центара података и даље ради реактивно. Оглашава се аларм. Неко истражује. Примењена је поправка. Циклус се понавља.

Прелазак на предиктивно управљање захтева три способности које недостају многим организацијама.

Комплетни конфигурациони подаци.Познавање онога што се налази у центру података — сваки сервер, сваки прекидач, сваки ПДУ, свака јединица за хлађење — је основа. Без тачних ЦМДБ података, планирање капацитета је само нагађање.

Грануларна телеметрија.Мерење снаге на нивоу сталка је минимум. Мерење снаге по серверу је боље. Додељивање моћи на нивоу радног оптерећења је најбоље, али најтеже постићи.

Аналитика која разликује сигнал од шума.Температурни скок на једном сталку може значити неисправан вентилатор. Температурни скок у половини дата центра може значити квар расхладног уређаја. Систем треба да разликује и према томе препоручи одговоре.

ДЦИМ платформа из СХАНГИУ-а обезбеђује подршку за СНМП и Модбус уређаје, интерфејсе за апликације засноване на вебу и Виндовс-у, као и интеграцију са мрежним камерама за снимање слика које покреће догађај. Наведени циљеви су једноставни: смањити скупе застоје, смањити дневне оперативне трошкове кроз потпуну контролу животне средине и побољшати видљивост и следљивост менаџмента.

Зашто је ово важно изван пода центра података

Потрошња енергије центра података чини отприлике 1 проценат глобалне потражње за електричном енергијом. Тај број звучи мало док се не стави у контекст. То је отприлике еквивалентно укупној потрошњи електричне енергије у Уједињеном Краљевству.

Што је још важније, стопа раста се убрзава. Индустријске пројекције показују да се потражња за енергијом центара података повећава за 10-15 процената годишње до 2030. године, вођена вештачком интелигенцијом, усвајањем облака и континуираном експанзијом повезаних уређаја. Тим темпом, дата центри би до краја деценије трошили 3-4 одсто глобалне електричне енергије.

Повећање ефикасности које је задржало потрошњу енергије на истом нивоу током претходне деценије дошло је од виртуелизације сервера (смањење броја физичких сервера), побољшане ефикасности дискова (прелазак са окретних дискова на ССД) и широке примене бесплатног хлађења (коришћење спољашњег ваздуха уместо механичког хлађења). То воће које ниско виси је увелико убрано.

Следећи талас ефикасности ће доћи од течног хлађења, дистрибуције вишег напона, контрола хлађења оптимизованих од вештачке интелигенције и — што је можда најважније — бољег усклађивања између капацитета инфраструктуре и стварног ИТ оптерећења. Тај последњи део захтева ону врсту видљивости у реалном времену и предиктивне аналитике коју ДЦИМ системи пружају, али мали број објеката у потпуности користи.

Нека питања која вреди поставити о сопственој инфраструктури

Да ли знате свој стварни ПУЕ, а не број на листи са спецификацијама?Ако нисте мерили на излазу УПС-а и на улазу ИТ опреме, не знате. Разлика је у вашим стварним трошковима.

Да ли се ваши системи за хлађење међусобно боре?У многим центрима података, ЦРАЦ јединице су постављене са преклапањем опсега температуре и влажности. Једна јединица одвлажује док друга влажи. Један хлади док се други загрева. Ово није необично. Такође није ефикасан.

Колика је потрошња енергије у стању мировања ваших сервера?Подаци из индустрије показују да типични сервери предузећа црпе 30-40 процената своје вршне снаге када не раде ништа. Искључивање или стављање у стање мировања некоришћених сервера је највећа доступна мера ефикасности повраћаја улагања. Такође се највише занемарује.

Да ли бисте могли да подигнете температуру доводног ваздуха за два степена без кршења спецификација опреме?Вероватно да. Већина опреме је оцењена за температуре од 25-27 степени. Већина дата центара ради на 20-22 степена. Тај јаз од шест степени представља године непотребне енергије за хлађење.

Када сте последњи пут потврдили своју ефикасност УПС-а?Ефикасност натписне плочице се мери при пуном оптерећењу са савршеним фактором снаге. Ефикасност у стварном свету при делимичном оптерећењу са стварним фактором снаге може бити 5-10 поена нижа.





Претходна:Нема вести
Следећи:Нема вести

Пошаљи упит

X
Користимо колачиће да бисмо вам понудили боље искуство прегледања, анализирали саобраћај на сајту и персонализовали садржај. Коришћењем овог сајта прихватате нашу употребу колачића. Политика приватности