首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|芯片|物聯(lián)網(wǎng)|量子|低空經(jīng)濟(jì)|智能汽車|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|大數(shù)據(jù)|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 移動互聯(lián)網(wǎng) >> 正文

狂飆的算力,熾熱的難題:戴爾如何冷靜破局

2025年8月21日 14:46  CCTIME飛象網(wǎng)  

算力狂飆,能耗飆升

智算中心的“綠色革命”已經(jīng)打響

當(dāng)算力引擎全速運轉(zhuǎn)

數(shù)據(jù)中心的能耗正步步攀升

在性能與能效的賽跑中

戴爾科技用軟硬協(xié)同與智能冷卻

給出了一份面向未來的答卷

當(dāng)前,以人工智能、云計算、大數(shù)據(jù)為核心驅(qū)動的新一代信息技術(shù)革命,正以壓倒性態(tài)勢重塑全球產(chǎn)業(yè)格局。

這場變革在加速各行業(yè)數(shù)智化轉(zhuǎn)型進(jìn)程的同時,直接催生了算力需求的快速攀升,尤其是對智能算力的需求呈現(xiàn)出“爆發(fā)式”增長態(tài)勢。

中國信通院發(fā)布的《先進(jìn)計算暨算力發(fā)展指數(shù)藍(lán)皮書(2024)》顯示,過去幾年,我國通用數(shù)據(jù)中心與智算中心持續(xù)加快部署:

2023年,國內(nèi)基礎(chǔ)設(shè)施算力規(guī)模高達(dá)230 EFlops,位居全球第二;在用數(shù)據(jù)中心機(jī)架規(guī)模突破80萬標(biāo)準(zhǔn)機(jī)架,全國累計建設(shè)的智算中心數(shù)量達(dá)60個;預(yù)計未來3年,我國算力規(guī)模年均增速將達(dá)45%,算力需求強(qiáng)勁增長勢頭有望長期延續(xù)。

這也意味著,數(shù)據(jù)中心行業(yè)在保持高速增長的同時,也將長期面臨高能耗、高碳排放以及基礎(chǔ)設(shè)施成本持續(xù)攀升的多重挑戰(zhàn)。

IDC的相關(guān)報告也進(jìn)一步印證了這一判斷,未來18個月內(nèi),本地/托管型智算中心及遠(yuǎn)程邊緣位置的智算服務(wù)器與存儲硬件投資,將占數(shù)據(jù)中心總投資規(guī)模的29%。

尤為關(guān)鍵的是,相較于傳統(tǒng)CPU架構(gòu),支撐智算工作負(fù)載的GPU平均能耗達(dá)到CPU的1015倍;預(yù)計到2027年,全球數(shù)據(jù)中心用電量將占全球總用電量的2.5%,并以22.6%的復(fù)合年增長率持續(xù)增長。

面對這一趨勢,數(shù)據(jù)中心既要打造具備彈性擴(kuò)展能力的設(shè)施,以應(yīng)對不斷增長的算力需求,又要實現(xiàn)算力資源的智能調(diào)度與綠色低碳發(fā)展,唯有如此方能構(gòu)筑支撐萬億級數(shù)字經(jīng)濟(jì)體量的算力底座,筑牢數(shù)字經(jīng)濟(jì)發(fā)展的基石。

在此背景下,作為全球科技領(lǐng)軍企業(yè),戴爾科技也積極通過技術(shù)創(chuàng)新呼應(yīng)當(dāng)前數(shù)據(jù)中心加速走向“綠色低碳”發(fā)展的新趨勢。

不僅通過服務(wù)器組件優(yōu)化與平臺架構(gòu)創(chuàng)新實現(xiàn)能效比最大化,更推出覆蓋多場景的智能冷卻解決方案,在幫助行業(yè)客戶顯著降低運營成本、助力節(jié)能減排的同時,更為構(gòu)建未來綠色低碳的數(shù)據(jù)中心探索出一條創(chuàng)新實踐之路,其價值可謂“不止于眼下,更關(guān)乎未來”。

智算時代,數(shù)據(jù)中心

節(jié)能減排面臨全新挑戰(zhàn)

過去十余年,通算中心(傳統(tǒng)數(shù)據(jù)中心)作為云計算的核心基礎(chǔ)設(shè)施,經(jīng)歷了快速發(fā)展的黃金期。

然而,隨著人工智能技術(shù)的突破性進(jìn)展,智能技術(shù)在醫(yī)療、金融、制造業(yè)、零售業(yè)以及交通運輸?shù)刃袠I(yè)產(chǎn)生了廣泛的應(yīng)用需求,由此智算中心(AIDC)應(yīng)運而生,同時其規(guī)模和處理能力也出現(xiàn)了指數(shù)級的增長,通算中心走向智算中心已成為未來升級發(fā)展的必然趨勢。

但與此同時,智算需求的不斷增長,對數(shù)據(jù)中心的節(jié)能減排和綠色低碳也帶來了更大的挑戰(zhàn)和壓力,具體來看:

一是,從芯片與機(jī)柜的能效躍遷看,傳統(tǒng)數(shù)據(jù)中心架構(gòu)中,CPU熱設(shè)計功率(TDP)長期維持平穩(wěn)演進(jìn),當(dāng)前頂級CPU單顆功耗約500W量級,但進(jìn)入智算時代后,為支撐千億參數(shù)級大模型訓(xùn)練的算力密度需求,行業(yè)加速構(gòu)建超大規(guī)模GPU集群,單顆GPU芯片功耗已突破1400W,較傳統(tǒng)CPU實現(xiàn)顯著提升。

而在機(jī)柜層面,傳統(tǒng)數(shù)據(jù)中心功率密度普遍處于5-10kW區(qū)間,依托風(fēng)冷技術(shù)即可實現(xiàn)有效熱管理,但以NVIDIA GB200 NVL72為代表的超密計算系統(tǒng),其單機(jī)柜峰值功耗已達(dá)136kW,遠(yuǎn)超風(fēng)冷技術(shù)熱密度臨界點(約40kW/rack),這對數(shù)據(jù)中心能耗管理與熱管理方案帶來根本性挑戰(zhàn)。

二是,從散熱與架構(gòu)設(shè)計的革新看,隨著智算中心功耗特性的轉(zhuǎn)變,也正驅(qū)動新型散熱方案技術(shù)的不斷創(chuàng)新迭代。例如,在PCIe GPU領(lǐng)域,風(fēng)冷散熱功率邊界持續(xù)拓展,推動服務(wù)器架構(gòu)向4U形態(tài)升級,而當(dāng)GPU熱設(shè)計功率突破超高性能閾值時,直接液冷(DLC)技術(shù)也將成為必要選擇。

與此同時,SXM/OAM模塊功耗同樣也已逼近純風(fēng)冷物理極限,亟需引入芯片級的液冷技術(shù),這也會將促使傳統(tǒng)8卡并行配置向多節(jié)點縱向擴(kuò)展架構(gòu)轉(zhuǎn)型。

此外,基于ORv3標(biāo)準(zhǔn)的新一代機(jī)架設(shè)計在此趨勢下也展現(xiàn)出了顯著優(yōu)勢,其通過資源池化與熱管理優(yōu)化,可實現(xiàn)更高密度的算力部署與更優(yōu)能效比,能夠為下一代智能訓(xùn)練集群提供了更具擴(kuò)展性的基礎(chǔ)設(shè)施方案。

三是,從用電成本與政策約束的壓力看,隨著單機(jī)柜功耗的高密度化趨勢,智算中心的工作負(fù)載與電力需求規(guī)模也將遠(yuǎn)超傳統(tǒng)數(shù)據(jù)中心,這也導(dǎo)致能源消耗進(jìn)一步攀升。

數(shù)據(jù)顯示,2022年我國數(shù)據(jù)中心耗電量達(dá)2700億kWh,約占全國總用電量的3%;預(yù)計到2030年,這一數(shù)字將突破4000億+kWh,而電費成本占比也將高達(dá)數(shù)據(jù)中心運營成本的70%

更為關(guān)鍵的是,為實現(xiàn)“雙碳”目標(biāo),國家對數(shù)據(jù)中心的節(jié)能減排要求也持續(xù)加碼。如《數(shù)據(jù)中心綠色低碳發(fā)展專項行動計劃》就明確提出,到2025年底,新建及改擴(kuò)建大型/超大型數(shù)據(jù)中心PUE需降至1.25以內(nèi),國家樞紐節(jié)點數(shù)據(jù)中心項目PUE不得高于1.2。

也正因此,推動數(shù)據(jù)中心實現(xiàn)節(jié)能減排、走向綠色低碳轉(zhuǎn)型已不僅僅是大勢所趨,更是亟待解決的現(xiàn)實挑戰(zhàn)。

軟硬協(xié)同,構(gòu)建數(shù)據(jù)中心

全方位能效管理體系

也正是洞察到這種變化趨勢,戴爾科技采用“軟硬協(xié)同”的創(chuàng)新策略,通過硬件設(shè)計革新與智能軟件系統(tǒng)的深度整合,在數(shù)據(jù)中心基礎(chǔ)設(shè)施和服務(wù)器領(lǐng)域構(gòu)建了一套系統(tǒng)化、多層次的全方位能效管理體系。

該體系覆蓋從組件到整體設(shè)施的能耗管理與節(jié)能,具體來看:

首先,在服務(wù)器的組件與平臺層面,戴爾科技提供高效的服務(wù)器系統(tǒng)氣流與部件冷卻優(yōu)化設(shè)計方案。

以電源優(yōu)化和氣流平衡技術(shù)領(lǐng)域為例,其通過重新布局將電源置于機(jī)箱兩側(cè),構(gòu)建更均衡的熱空氣通道,有效穩(wěn)定整體機(jī)箱溫度;同時采用變速風(fēng)扇技術(shù),依據(jù)不同部件配置動態(tài)調(diào)節(jié)風(fēng)扇轉(zhuǎn)速。

在部件優(yōu)化設(shè)計上,針對GPU服務(wù)器采用高速網(wǎng)卡前置設(shè)計以避免網(wǎng)卡過熱,并通過多矢量散熱技術(shù)為不同部件精準(zhǔn)匹配風(fēng)量與散熱方案,此外還引入冷板和浸沒式高級冷卻技術(shù),這些優(yōu)化設(shè)計共同為服務(wù)器平臺實現(xiàn)了最大化的能效比。

其次,在軟件層面,戴爾科技以O(shè)penManage和Dell AIOps為核心,構(gòu)建了覆蓋全生命周期的能效管理框架。

OpenManage系統(tǒng)管理解決方案為例,其集成iDRAC遠(yuǎn)程管理模塊與OME控制臺構(gòu)成基礎(chǔ)架構(gòu)層,而作為OME智能插件的電源管理器則通過四大核心功能實現(xiàn)精細(xì)化能源管控:

• 實時追蹤服務(wù)器熱健康狀態(tài)與功率消耗并建立風(fēng)險預(yù)警機(jī)制;

• 基于策略的電力調(diào)控系統(tǒng)可在電價波動時自動優(yōu)化資源配置;

• 通過最大化利用現(xiàn)有機(jī)架電力基礎(chǔ)設(shè)施容量,實現(xiàn)跨服務(wù)器組的動態(tài)負(fù)載均衡,該軟件已實現(xiàn)對主流第三方服務(wù)器的兼容支持。

而Dell AIOps作為新一代數(shù)據(jù)中心智能運維平臺,則將能效管理提升至更高維度,這一SaaS應(yīng)用通過三個維度助力數(shù)據(jù)中心客戶構(gòu)建可持續(xù)決策體系:

1.基于IEA國家排放因子與定制化PUE模型,提供精確到系統(tǒng)級別的碳排放可視化

2.整合設(shè)備健康度、安全態(tài)勢、容量規(guī)劃等多維數(shù)據(jù),生成最優(yōu)工作負(fù)載整合方案

3.此外,采用機(jī)器學(xué)習(xí)算法建立能源使用基準(zhǔn)模型,實現(xiàn)季節(jié)性異常檢測與長期趨勢預(yù)測。

最后,在基礎(chǔ)架構(gòu)的設(shè)計與應(yīng)用層面,戴爾科技同樣通過創(chuàng)新技術(shù)優(yōu)化能耗管理。

例如,戴爾科技采用數(shù)據(jù)縮減技術(shù),在企業(yè)級存儲產(chǎn)品PowerStore上實現(xiàn)5:1的數(shù)據(jù)壓縮比,PowerProtect Data Domain上則是更達(dá)到驚人的65:1重復(fù)刪除壓縮比,都可以大幅減少磁盤空間的占用,從而減少電力和減少碳排放。

而在數(shù)據(jù)架構(gòu)技術(shù)方面,戴爾科技也可以將之前的存算一體的架構(gòu),轉(zhuǎn)換為存算分離的架構(gòu)。

比如,廣泛使用的Hadoop之前采用服務(wù)器內(nèi)置硬盤來實現(xiàn)存儲,而通過采用戴爾PowerScale將存儲分離出來,使得Hadoop的存儲空間利用率從之前的30%,提升到80%,大幅度地提升了存儲空間的利用率,減少了存儲磁盤的數(shù)量,提升了能效比。

不難看出,這種“軟硬協(xié)同”的創(chuàng)新模式使戴爾科技在數(shù)據(jù)中心能效優(yōu)化領(lǐng)域形成了完整的技術(shù)閉環(huán)。

從硬件底層的散熱設(shè)計優(yōu)化,到存儲層的數(shù)據(jù)縮減技術(shù)創(chuàng)新,再到軟件層的智能預(yù)測與自動化控制,最終通過AIOps實現(xiàn)戰(zhàn)略層面的可持續(xù)性決策支持。

這一多層次、全棧式的能效管理方案,不但提升了數(shù)據(jù)中心基礎(chǔ)設(shè)施能效比的同時,也顯著降低了總體擁有成本(TCO),更為企業(yè)構(gòu)建綠色數(shù)據(jù)中心提供了可參考和可借鑒的落地途徑。

智能冷卻,推動下一代

智算數(shù)據(jù)中心可持續(xù)發(fā)展

同樣,在當(dāng)前數(shù)據(jù)中心邁向液冷時代的轉(zhuǎn)折點上,戴爾科技也“與時俱進(jìn)”的打造了一套智能冷卻解決方案,由此不僅為智算中心帶來了更加高效和豐富的智能冷卻產(chǎn)品線,更為中國用戶的數(shù)據(jù)中心綠色升級提供了“最優(yōu)解”。

據(jù)了解,戴爾科技智能冷卻解決方案為下一代智算數(shù)據(jù)中心提供了三種差異化冷卻方案,涵蓋風(fēng)冷冷板式液冷浸沒式液冷三大技術(shù)路徑,能夠全方位滿足不同場景的散熱需求。

其中,在風(fēng)冷技術(shù)領(lǐng)域,戴爾科技持續(xù)突破技術(shù)邊界,通過多矢量散熱技術(shù)與AI算法深度融合,實現(xiàn)對服務(wù)器內(nèi)部組件發(fā)熱狀況的智能識別與動態(tài)分析。該技術(shù)可針對不同區(qū)域及部件精準(zhǔn)調(diào)節(jié)風(fēng)量,確保最佳冷卻效果,尤其在戴爾新一代PowerEdge服務(wù)器中更成功實現(xiàn)對高TDP新一代CPU的高效散熱。

與此同時,針對高功耗服務(wù)器,戴爾科技還研發(fā)了高性能轉(zhuǎn)速的新型風(fēng)扇,進(jìn)一步強(qiáng)化散熱能力,在保障設(shè)備穩(wěn)定運行的同時,最大限度降低對現(xiàn)有風(fēng)冷數(shù)據(jù)中心基礎(chǔ)設(shè)施的改造需求,充分保護(hù)客戶既有投資。

而在液冷技術(shù)領(lǐng)域,戴爾科技更是擁有超過15年的技術(shù)沉淀與商業(yè)化經(jīng)驗。可以看到,自2010年率先實現(xiàn)單相浸沒式液冷服務(wù)器冷卻的商業(yè)化部署以來,戴爾科技就持續(xù)引領(lǐng)行業(yè)創(chuàng)新:

•在戴爾PowerEdge 第14代服務(wù)器時代,其C6400系列服務(wù)器大規(guī)模應(yīng)用DLC冷板式液冷方案,全球部署規(guī)模突破萬臺

•戴爾PowerEdge 15代服務(wù)器則將支持冷板式液冷的型號增至7個;

•戴爾PowerEdge 16代服務(wù)器進(jìn)一步擴(kuò)展至12個型號

•而在最新的戴爾PowerEdge 第17代服務(wù)器則延續(xù)技術(shù)傳承,持續(xù)完善冷板式液冷產(chǎn)品矩陣。

在這背后,也正是戴爾科技在多元化熱量捕獲技術(shù)體系的持續(xù)創(chuàng)新的體現(xiàn),基于冷板冷卻(DLC)、列間空調(diào)、水冷背門(RDHx)及冷熱風(fēng)道隔離技術(shù),可靈活匹配不同機(jī)架熱密度與能效需求。

例如,列間空調(diào)與機(jī)架密封結(jié)合實現(xiàn)100%熱量捕獲;而水冷背門(RDHx)在捕獲全部熱量的同時調(diào)節(jié)空間空氣,支持最高32°C進(jìn)水溫度,較傳統(tǒng)方案提升冷水機(jī)組能效;冷板冷卻技術(shù)通過降低服務(wù)器風(fēng)扇功耗進(jìn)一步提升系統(tǒng)能效。

不僅如此,在今年2025戴爾科技全球峰會(DTW)上,戴爾更是全球獨家首發(fā)封閉式后門熱交換器(eRDHx)系統(tǒng)及集成機(jī)架控制器(IRC),重新定義高密度散熱標(biāo)準(zhǔn),該系統(tǒng)可100%捕獲服務(wù)器熱量,支持單機(jī)柜80kW溫水冷卻,相較標(biāo)準(zhǔn)后門熱交換器節(jié)能達(dá)60%,使AI/HPC機(jī)架密度提升16%且無需增加功耗。

同時,其獨立氣流系統(tǒng)兼容32-36度溫水,熱插拔風(fēng)扇設(shè)計確保維護(hù)便捷性,集成機(jī)架控制器與OpenManage Enterprise深度整合,可提供全機(jī)架級實時熱監(jiān)控、泄漏檢測及統(tǒng)一組件控制,最大化提升數(shù)據(jù)中心可靠性與可持續(xù)性。

而在場景化解決方案適配方面,戴爾智能冷卻解決方案也一直堅持以客戶需求為核心,提供場景化定制服務(wù),比如高算力場景(如智算、超算),針對高TDP計算芯片,戴爾科技通過靈活組合風(fēng)冷與液冷技術(shù),可保障極端負(fù)載下的穩(wěn)定散熱。

在綠色節(jié)能場景,戴爾科技則通過冷板式與浸沒式液冷技術(shù),有效降低PUE,助力客戶達(dá)成ESG目標(biāo)及政策合規(guī)要求;而在一些特殊環(huán)境場景(如分支辦公室),戴爾科技的浸沒式和冷板液冷方案都可有效降低噪音,完美適配對噪音敏感的應(yīng)用場景。

值得關(guān)注的是,戴爾科技除了可以提供成熟可靠的場景化液體冷卻解決方,以及一體化工廠預(yù)裝的整機(jī)柜交付的冷板服務(wù)器組合,減少現(xiàn)場工程的復(fù)雜度之外,同樣也可以結(jié)合戴爾科技的合作伙伴為客戶定制化交付不同的液冷方案,滿足不同應(yīng)用場景和客戶訴求的液冷解決方案。

總的來說,相較于業(yè)界,戴爾科技的智能冷卻解決方案主要有三大優(yōu)勢:

• 一是技術(shù)前瞻性,其風(fēng)冷技術(shù)持續(xù)演進(jìn),無縫適配最新計算芯片,無需改造現(xiàn)有基礎(chǔ)設(shè)施;

• 其二,全場景覆蓋,融合風(fēng)冷、冷板式液冷、浸沒式液冷及創(chuàng)新熱量捕獲技術(shù),精準(zhǔn)匹配智算中心高密度、高功耗發(fā)展趨勢,助力PUE優(yōu)化與綠色節(jié)能;

• 其三,生態(tài)與服務(wù)保障,依托戴爾科技全球供應(yīng)鏈與服務(wù)體系,可提供從一體化整機(jī)柜交付到定制化液冷方案的全周期支持,確?蛻魺o憂部署。

也正因此,自2023年以來,戴爾科技已聯(lián)手合作伙伴GRC在全球范圍內(nèi)實現(xiàn)了大規(guī)模商用部署浸沒液冷方案;而在中國, 戴爾科技通過聯(lián)合合作伙伴綠色云圖,也在國內(nèi)多所大學(xué)成功部署了較大規(guī)模的浸沒液冷和冷板液冷的典型案例。

結(jié) 語

面向未來,戴爾科技將通過持續(xù)的技術(shù)創(chuàng)新與場景深耕,助力行業(yè)客戶構(gòu)建高效、可持續(xù)的下一代數(shù)據(jù)中心,為不斷暴增的智算中心需求提供更為堅實支撐,持續(xù)推動綠色數(shù)據(jù)中心的能效革命。

編 輯:T01
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
推薦新聞              
 
人物
中國電信柯瑞文:星辰智惠 共治共享
精彩視頻
2025世界人形機(jī)器人運動會十大名場面燃爆全場
“移起向新 數(shù)智興農(nóng)” 廣西媒體行
現(xiàn)場直擊2025世界人形機(jī)器人運動會
機(jī)器人也太會整活了!跟隨中國聯(lián)通,打卡國家速滑館“冰絲帶”
精彩專題
2025中國算力大會
2025世界人工智能大會暨人工智能全球治理高級別會議
2025中國聯(lián)通合作伙伴大會
2025 MWC 上海
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像