Ang mga Data Center ay Kumakain ng Higit na Lakas kaysa sa Inaasahan ng Sinuman. Ang Industriya ay Karera upang Makahabol.

2026-04-29 - Mag-iwan ako ng mensahe

Sa loob ng maraming taon, ang kuwento ngsentro ng datosang pagkonsumo ng enerhiya ay sumunod sa isang predictable arc. Ang digitalization ay lumalaki, sigurado, ngunit ang mga nadagdag na kahusayan mula sa mas mahuhusay na mga server, virtualization, at cloud consolidation ay nagpapanatili sa kabuuang paggamit ng kuryente na nakakagulat na flat. Ang global data center power demand ay umabot sa humigit-kumulang 1 porsiyento ng kabuuang paggamit ng kuryente — humigit-kumulang 200 terawatt-hours taun-taon — para sa mas magandang bahagi ng isang dekada.

Ang panahong iyon ay nagtatapos.

Ang convergence ng generative AI, cryptocurrency mining, edge computing, at ang exponential growth ng mga konektadong device ay sinira ang lumang kurba ng kahusayan. Ipinapakita na ngayon ng mga pagtatantya ng industriya ang data center power demand na lumalaki sa taunang mga rate na hindi nakikita mula noong unang bahagi ng 2000s. Sa ilang rehiyon — Ireland, Northern Virginia, Singapore — ang mga data center ay nagkakaloob na ng 15 hanggang 25 porsiyento ng kabuuang pagkonsumo ng kuryente, na pumipilit sa mga regulator na magpataw ng mga moratorium sa bagong konstruksyon.

Laban sa backdrop na ito, ang mga pagpipilian sa imprastraktura na dating parang teknikal na detalye — cooling architecture, power distribution topology, rack density planning — ay naging mga desisyon sa boardroom. Ang gastos sa enerhiya ay hindi na isang line item. Ito ay isang hadlang sa paglago.


Ang Simpleng Sukat na Nagbago sa Lahat

Ang Power Usage Effectiveness, o PUE, ay naging pamantayang sukatan ng kahusayan ng industriya ng data center sa halos dalawang dekada. Ito ay isang simpleng ratio: kabuuang kapangyarihan ng pasilidad na hinati sa kapangyarihan ng kagamitan sa IT.

Ang PUE na 2.0 ay nangangahulugan na para sa bawat watt powering server at storage, isa pang watt ang napupunta sa cooling, lighting, power conversion loss, at iba pang overhead. Ang PUE na 1.2 ay nangangahulugan na ang overhead ay kumokonsumo lamang ng 0.2 watts bawat IT watt.

Ang industriya ay malawak na tumatanggap ng mga tier batay sa PUE:

Antas PUE DCiE Ano ang ibig sabihin nito
Platinum <1.25 >0.80 World-class na kahusayan, karaniwang nangangailangan ng libreng paglamig o likidong paglamig
ginto 1.25 – 1.43 0.70 – 0.80 Napakahusay, maaabot sa mga modernong disenyo sa katamtamang klima
pilak 1.43 – 1.67 0.60 – 0.70 Katanggap-tanggap para sa mas lumang mga pasilidad o mas maiinit na klima
Tanso 1.67 – 2.00 0.50 – 0.60 Karaniwan para sa mga legacy na data center na walang malalaking pagbabago
Patas 2.00 – 2.50 0.40 – 0.50 Mahina ang kahusayan, mataas na gastos sa pagpapatakbo
mahirap >2.50 <0.40 Ang kritikal na inefficiency, malamang na nangangailangan ng agarang atensyon

Ang problema ay maraming organisasyon ang hindi talaga alam ang kanilang PUE. Tinatantya nila. Hulaan nila. O sinusukat lamang nila sa pangunahing metro ng utility at ipinapalagay ang natitira.

Nalaman ng isang survey sa industriya noong 2023 na halos 40 porsiyento ng mga operator ng data center ay hindi kailanman nasukat ang PUE sa antas ng rack. Sa mga gumawa, ang spread sa pagitan ng iniulat at aktwal na PUE ay nag-average ng 0.3 puntos — sapat na upang ilipat ang isang pasilidad mula sa Ginto patungo sa Pilak nang walang nakakapansin.

Kung Saan Napupunta ang Kapangyarihan

Ang pag-unawa kung bakit napakalawak na nag-iiba-iba ang PUE ay nagsisimula sa pagtingin sa kung saan umalis ang power sa isang data center.

Sa isang tipikal na air-cooled na pasilidad na may PUE sa paligid ng 1.8, ang breakdown ay halos ganito:

  • Mga kagamitan sa IT (server, storage, networking): 55-60 porsyento
  • Pagpapalamig (mga unit ng CRAC/CRAH, chiller, pump, dry cooler): 30-35 porsiyento
  • Pamamahagi ng kuryente (UPS, mga transformer, pagkalugi ng PDU): 5-8 porsyento
  • Pag-iilaw at iba pang pagkarga sa pasilidad: 2-4 porsiyento

Ang paglamig load ay ang pinakamalaking variable. Ang isang pasilidad sa isang katamtamang klima na gumagamit ng hangin sa labas para sa libreng pagpapalamig ay maaaring gumastos lamang ng 15 porsiyento ng hindi-IT na kapangyarihan nito sa pagpapalamig. Ang parehong pasilidad sa isang tropikal na klima na may mekanikal na paglamig sa buong taon ay maaaring gumastos ng 40 porsiyento.

Ito ang dahilan kung bakit ang mga tagapagbigay ng colocation ay nag-a-advertise ng PUE sa antas ng pasilidad ngunit naghahatid ng PUE sa metro ng customer — magkaibang numero, magkaibang implikasyon. Binabayaran ng customer ang lahat ng ito.

Ang Paglipat Mula sa Tradisyonal patungong Cloud-Scale na Infrastructure

Ipinapalagay ng tradisyonal na pamamahala ng data center ang isang medyo static na kapaligiran. Ang mga rack ay napuno sa mga buwan o taon. Mabagal na maisaayos ang paglamig. Labis ang laki ng pamamahagi ng kuryente mula sa unang araw.

Binago ng panahon ng ulap ang mga pagpapalagay. Ang mga rack ay pumupuno na ngayon ng mga araw. Awtomatikong lumilipat ang mga workload sa mga server. Ang mga high-density AI cluster ay maaaring makakuha ng tatlong beses ang lakas ng mga katabing general-purpose compute rack.

Ang mga pagbabagong ito ay nagpilit na muling pag-isipan ang pamamahala sa imprastraktura. Tatlong uso ang namumukod-tangi.

Una, ang density ay tumataas nang hindi pantay.Ang isang karaniwang rack ng server isang dekada na ang nakalipas ay nakakuha ng 5-8 kilowatts. Ngayon, ang mga rack ng pangkalahatang layunin ay gumuhit ng 10-15 kilowatts. Ang high-performance na computing at AI training racks ay karaniwang lumalampas sa 30 kilowatts bawat rack. Ang ilan ay lumampas sa 50 kilowatts.

Lumilikha ito ng mga hamon sa pamamahala ng thermal na pinaghihirapang lutasin ng air cooling. Sa 20 kilowatts bawat rack, nananatiling epektibo ang paglamig ng hangin na may wastong containment. Sa 30 kilowatts, ito ay nagiging marginal. Sa 40 kilowatts at mas mataas, ang likidong paglamig ay lumilipat mula sa opsyonal patungo sa kinakailangan.

Pangalawa, ang pagpaplano ng kapasidad ay naging predictive.Ang lumang paraan — bumili ng mas maraming kapasidad kaysa sa kinakailangan at hayaan itong umupo sa idle — ay hindi na gumagana sa sukat. Ang idle capacity ay may parehong capital cost at patuloy na maintenance cost.

Gumagamit ang mga modernong sistema ng pamamahala ng imprastraktura ng makasaysayang data at pagtataya ng workload upang mahulaan kung kailan mauubos ang power, cooling, o rack space. Maaaring magrekomenda ang pinakamahusay na mga system kung muling i-configure ang kasalukuyang kapasidad o mag-order ng bagong hardware, araw o linggo bago maging kritikal ang isang hadlang.

Pangatlo, ang mga kinakailangan sa visibility ay may halpanded.Maaaring subaybayan ng isang tradisyunal na data center ang kapangyarihan sa antas ng PDU. Ang isang modernong pasilidad ay nangangailangan ng visibility sa antas ng rack, kung minsan sa antas ng server, at lalong nasa antas ng workload — alam kung aling virtual machine o container ang nagtutulak kung aling power draw.

Ang DCIM Layer: Ano Ang Talagang Ginagawa Nito

Imprastraktura ng Data CenterAng management (DCIM) software ay umiral nang mahigit isang dekada, ngunit ang pag-aampon ay nananatiling hindi pantay. Wala pang kalahati ng mga enterprise data center ang nag-deploy ng buong DCIM system. Marami na gumamit lamang ng maliit na bahagi ng mga kakayahan nito.

Ang isang maayos na ipinatupad na sistema ng DCIM ay gumagawa ng apat na bagay:

Pamamahala ng asset.Ang bawat server, switch, PDU, at cooling unit ay sinusubaybayan sa isang database ng pamamahala ng pagsasaayos (CMDB). Lokasyon, rating ng kuryente, mga koneksyon sa network, kasaysayan ng pagpapanatili — lahat ng ito. Ito ay tunog simple, ngunit maraming mga organisasyon ang sumusubaybay pa rin ng mga asset sa mga spreadsheet na ilang buwan sa pagitan ng mga update.

Real-time na pagsubaybay.Power draw sa antas ng PDU o rack, temperatura at halumigmig sa mga supply at return point, status ng cooling system, kalusugan ng baterya ng UPS. Nagti-trigger ang mga alarm kapag lumihis ang mga parameter mula sa mga setpoint. Ang layunin ay tuklasin ang mga problema bago sila magdulot ng downtime.

Pagpaplano ng kapasidad.Alam ng system kung gaano karaming power at cooling capacity ang available, kung magkano ang ginagamit, at kung magkano ang nakalaan para sa deployment sa hinaharap. Maaari nitong imodelo ang epekto ng pagdaragdag ng bagong high-density rack o pagretiro ng isang set ng mas lumang mga server.

Visualization.Ang digital twin ng data center — rack by rack, tile by tile — ay nagpapakita ng mga kasalukuyang kundisyon at nagbibigay-daan sa mga operator na gayahin ang mga pagbabago. Pagdaragdag ng 10 kilowatts ng load sa row three, column four: lumalampas ba iyon sa cooling capacity? Sumasagot ang system bago maglipat ng kagamitan.

Ang Efficiency Math na Talagang Gumagana

Ang pagputol ng pagkonsumo ng enerhiya ng data center ay hindi misteryoso. Ang mga pamamaraan ay naiintindihan nang mabuti. Ang hamon ay disiplina sa pagpapatupad.

Itaas ang supply ng temperatura ng hangin.Karamihan sa mga data center ay malamig — 18 hanggang 20 degrees Celsius sa pagbabalik ng cooling unit — dahil iyon ang palaging ginagawa ng mga operator. Inirerekomenda na ngayon ng mga alituntunin ng ASHRAE ang 24 hanggang 27 degrees. Bawat pagtaas ng antas ay nagbabawas ng pagpapalamig ng enerhiya ng humigit-kumulang 4 na porsyento. Ang pagtakbo sa 26 degrees sa halip na 20 degrees ay nakakatipid ng 20-25 porsiyento ng cooling power.

Tanggalin ang mainit at malamig na paghahalo ng hangin.Pinipilit ng hot-aisle containment, cold-aisle containment, o vertical exhaust duct ang paglamig ng hangin kung saan ito kinakailangan kaysa sa maikling pagbibisikleta sa harap ng mga rack. Karaniwang binabawasan ng pag-containment ang enerhiya ng paglamig ng 15-25 porsyento.

Gumamit ng mga variable speed drive.Ang patuloy na bilis ng mga fan at pump ay nag-aaksaya ng enerhiya sa bahagyang pagkarga. Ang mga variable na bilis ng drive ay tumutugma sa daloy ng hangin at daloy ng tubig sa aktwal na pangangailangan. Karaniwang 1-3 taon ang mga panahon ng retrofit na payback.

I-optimize ang pagpapatakbo ng UPS.Karamihan sa mga UPS system ay patuloy na tumatakbo sa double-conversion mode — kino-convert ang AC sa DC at pabalik sa AC kahit na malinis ang utility power. Ang mga modernong UPS system ay maaaring lumipat sa eco-mode kapag pinahihintulutan ang kalidad ng kuryente, na nakakamit ng 99 porsiyentong kahusayan sa halip na 94-96 porsiyento. Ang tradeoff ay isang maikling oras ng paglipat sa baterya kung nabigo ang kapangyarihan ng utility. Para sa mga IT load na may mga power supply na idinisenyo para sa mga naturang paglilipat, ang panganib ay minimal.

I-adopt ang mas mataas na boltahe na pamamahagi.Ang pamamahagi ng kapangyarihan sa 415V sa halip na 208V ay binabawasan ang mga pagkalugi sa pamamahagi ng humigit-kumulang 25 porsyento. Nangangailangan ito ng mga katugmang PDU at power supply ng server, ngunit sinusuportahan ito ng maraming modernong device.

Ano ang hitsura ng Real-World Efficiency

Kumpanya ng Shanghai CPSY, isang high-tech na enterprise na may pagtuon sa imprastraktura ng data center, ay nag-uulat ng PUE na 1.3 para sa mga modular na solusyon sa data center nito. Inilalagay nito ang kumpanya sa Gold tier, patungo sa Platinum.

Ang inaangkin na 25 porsiyentong pagtitipid sa enerhiya kumpara sa mga nakasanayang disenyo ay nagmumula sa maraming salik. Ang mga modular na UPS system na may 97.4 porsiyentong kahusayan sa antas ng sistema ay nagbabawas sa mga pagkalugi sa pamamahagi na kung hindi man ay tumatakbo ng 15-20 porsiyento. Ang mga precision air conditioner na may mga variable na bilis ng compressor at EC fan ay nagsasaayos ng cooling output upang tumugma sa aktwal na pagkarga ng init sa halip na tumatakbo sa nakapirming kapasidad. At ang pisikal na layout — hot-aisle containment, pinakamainam na rack spacing, nakataas na sahig na may wastong sukat na butas-butas na mga tile — ay tumutugon sa pamamahala ng airflow na sumisira sa maraming mahusay na pasilidad.

Kasama sa portfolio ng sertipikasyon ng kumpanya ang ISO 9001 (pamamahala ng kalidad) at ISO 27001 (pamamahala ng seguridad ng impormasyon). Kasama sa mga deployment ng customer nito ang pakikipagsosyo sa Huawei, ZTE, at Inspur, na may mga export installation sa United States, United Kingdom, Germany, France, at Australia.

Kung saan Pumapasok ang Paglamig ng Liquid sa Larawan

Sa loob ng maraming taon, ang likidong paglamig ay isang angkop na teknolohiya para sa mga supercomputing center. Iyon ay mabilis na nagbabago.

Ang mga kumpol ng pagsasanay ng AI na gumagamit ng NVIDIA H100 o mga paparating na B200 GPU ay bumubuo ng 30-50 kilowatts bawat rack sa mga configuration na puro air-cooled. Sa mga densidad na ito, ang paglamig ng hangin ay nangangailangan ng mataas na rate ng daloy ng hangin - malalakas na fan, malalim na rack, at marginal thermal control pa rin.

Ang direct-to-chip na paglamig ng likido ay nag-aalis ng 60-80 porsiyento ng init sa pinagmulan. Ang mga chips ay tumatakbo nang mas malamig. Mas mabagal ang pagtakbo ng mga fans. Hinahawakan lang ng air conditioner ng silid ang natitirang init mula sa mga power supply, memorya, at iba pang mga bahagi.

Malaki ang pakinabang ng kahusayan. Ang mga pasilidad na may direktang-sa-chip na paglamig ay nag-uulat ng mga halaga ng PUE na 1.1 hanggang 1.2. Ang mga tradeoff ay mas mataas na gastos sa kapital, mas kumplikadong pamamahala ng pagtagas, at ang pangangailangan para sa paggamot ng tubig na nasa grade- facility.

Full immersion cooling — ilubog ang buong server sa dielectric fluid — itinutulak ang PUE sa ibaba ng 1.1 ngunit nananatiling dalubhasa. Karamihan sa mga komersyal na data center ay gagamit muna ng direct-to-chip cooling, sa ibang pagkakataon para sa mga partikular na high-density zone.

Kasama sa platform ng data center ng SHANGYU ang mga probisyon para sa parehong air at liquid cooling architecture, na kinikilala na ang mga high-density deployment sa hinaharap ay mangangailangan ng fluid-based na thermal management anuman ang disenyo ng pasilidad.

Ang Gap sa Pamamahala: Mula Reaktibo hanggang Mahuhula

Karamihan sa mga pangkat ng pagpapatakbo ng data center ay gumagana nang reaktibo. Isang alarm ang tumunog. May nag-iimbestiga. Ang isang pag-aayos ay inilapat. Umuulit ang cycle.

Ang paglipat sa predictive management ay nangangailangan ng tatlong kakayahan na kulang sa maraming organisasyon.

Kumpletuhin ang data ng pagsasaayos.Ang pag-alam kung ano ang nasa data center — bawat server, bawat switch, bawat PDU, bawat cooling unit — ang pundasyon. Kung walang tumpak na data ng CMDB, ang pagpaplano ng kapasidad ay hula.

Granular telemetry.Ang pagsukat ng kapangyarihan sa antas ng rack ay ang pinakamababa. Ang pagsukat ng kapangyarihan ng bawat server ay mas mahusay. Ang attribution ng kapangyarihan sa antas ng workload ay pinakamahusay ngunit pinakamahirap makamit.

Analytics na nakikilala ang signal sa ingay.Ang pagtaas ng temperatura sa isang rack ay maaaring mangahulugan ng isang bigong fan. Ang pagtaas ng temperatura sa kalahati ng data center ay maaaring mangahulugan ng pagkabigo ng chiller. Ang system ay kailangang mag-iba at magrekomenda ng mga tugon nang naaayon.

Ang DCIM platform mula sa SHANGYU ay nagbibigay ng SNMP at Modbus device support, web-based at Windows application interface, at integration sa mga network camera para sa event-triggered imaging. Ang mga nakasaad na layunin ay diretso: bawasan ang mahal na downtime, bawasan ang pang-araw-araw na gastos sa pagpapatakbo sa pamamagitan ng kumpletong kontrol sa kapaligiran, at pagbutihin ang visibility at traceability ng pamamahala.

Bakit Mahalaga Ito Higit pa sa Data Center Floor

Ang pagkonsumo ng enerhiya ng data center ay nagkakahalaga ng humigit-kumulang 1 porsiyento ng pandaigdigang pangangailangan ng kuryente. Mukhang maliit ang numerong iyon hanggang sa ilagay sa konteksto. Ito ay halos katumbas ng kabuuang konsumo ng kuryente ng United Kingdom.

Higit sa lahat, ang rate ng paglago ay nagpapabilis. Ang mga projection ng industriya ay nagpapakita ng data center power demand na tumataas sa 10-15 porsiyento taun-taon hanggang 2030, na hinimok ng AI, cloud adoption, at ang patuloy na pagpapalawak ng mga konektadong device. Sa rate na iyon, ang mga data center ay kumonsumo ng 3-4 na porsyento ng pandaigdigang kuryente sa pagtatapos ng dekada.

Ang mga nadagdag na kahusayan na nagpanatiling flat sa konsumo ng kuryente sa nakaraang dekada ay nagmula sa virtualization ng server (pagbabawas ng bilang ng pisikal na server), pinahusay na kahusayan sa drive (paglipat mula sa mga spinning disk patungo sa SSD), at malawak na pag-deploy ng libreng paglamig (gamit ang hangin sa labas sa halip na mekanikal na pagpapalamig). Ang mga mababang-hang na prutas ay higit na napitas.

Ang susunod na wave ng kahusayan ay magmumula sa liquid cooling, mas mataas na boltahe na pamamahagi, AI-optimized cooling controls, at — marahil ang pinakamahalaga — mas mahusay na pagkakahanay sa pagitan ng kapasidad ng imprastraktura at aktwal na IT load. Ang huling bahaging iyon ay nangangailangan ng uri ng real-time na visibility at predictive analytics na ibinibigay ng mga DCIM system ngunit kakaunting pasilidad ang ganap na ginagamit.

Ilang Tanong na Karapat-dapat Itanong Tungkol sa Iyong Sariling Imprastraktura

Alam mo ba ang iyong aktwal na PUE, hindi ang numero sa spec sheet?Kung hindi mo pa nasusukat sa output ng UPS at sa input ng kagamitan sa IT, hindi mo alam. Ang pagkakaiba ay ang iyong tunay na overhead.

Naglalaban ba ang iyong mga cooling system sa isa't isa?Sa maraming data center, nakatakda ang mga unit ng CRAC na may magkakapatong na mga banda ng temperatura at halumigmig. Ang isang unit ay nagde-dehumidify habang ang isa naman ay humidify. Ang isa ay lumalamig habang ang isa ay umiinit. Ito ay hindi pangkaraniwan. Hindi rin ito episyente.

Ano ang idle power draw ng iyong mga server?Ipinapakita ng data ng industriya na ang mga tipikal na server ng enterprise ay kumukuha ng 30-40 porsiyento ng kanilang pinakamataas na kapangyarihan kapag walang ginagawa. Ang pag-shut down o pagpapatulog sa mga hindi nagamit na server ay ang pinakamataas na ROI na sukat ng kahusayan na magagamit. Ito rin ang pinakanapapansin.

Maaari mo bang itaas ang iyong supply ng air temperature ng dalawang degree nang hindi lumalabag sa mga detalye ng kagamitan?Malamang oo. Karamihan sa mga kagamitan ay na-rate para sa 25-27 degree na temperatura ng paggamit. Karamihan sa mga data center ay tumatakbo sa 20-22 degrees. Ang anim na antas na agwat na iyon ay kumakatawan sa mga taon ng hindi kinakailangang enerhiya sa paglamig.

Kailan mo huling na-validate ang iyong kahusayan sa UPS?Ang kahusayan ng nameplate ay sinusukat sa buong pagkarga na may perpektong power factor. Ang real-world na kahusayan sa bahagyang pagkarga na may real-world na power factor ay maaaring mas mababa ng 5-10 puntos.





Nakaraang:Walang balita

Magpadala ng Inquiry

X
Gumagamit kami ng cookies para mag-alok sa iyo ng mas magandang karanasan sa pagba-browse, pag-aralan ang trapiko sa site at i-personalize ang content. Sa paggamit ng site na ito, sumasang-ayon ka sa aming paggamit ng cookies. Patakaran sa Privacy