大陆一级毛片免费视频观看i,一级黄色在线播放,a毛片成人免费全部播放,a级毛片免费高清视频,12至16末成年毛片高清,中文毛片,亚洲欧美日韩综合精品网

同花順 Logo
AIME助手
問財助手
從“風冷時代”走向“液冷時代”:數(shù)據(jù)中心正在被重新定義
2026-05-07 17:01:00
作者:UCloud
分享
AIME

問財摘要

1、數(shù)據(jù)中心正迎來一次底層架構(gòu)級的變革,液冷技術(shù)成為AI時代算力基礎(chǔ)設(shè)施的關(guān)鍵能力。傳統(tǒng)風冷體系已經(jīng)越來越難支撐下一代智算中心的發(fā)展需求,液冷通過液體直接帶走熱量,大幅提升換熱效率,可有效降低能耗、提升部署密度,并顯著改善設(shè)備長期可靠性。 2、液冷技術(shù)路線正在走向分層演進,目前行業(yè)主流液冷方案主要包括冷板式液冷與浸沒式液冷。 3、隨著液冷從實驗室走向規(guī)模化落地,行業(yè)關(guān)注點也正在從“能不能做”轉(zhuǎn)向“如何穩(wěn)定運營”。 4、未來液冷行業(yè)將迎來三大趨勢:液冷與芯片進一步深度融合、國產(chǎn)化供應(yīng)鏈持續(xù)成熟、數(shù)據(jù)中心向能源節(jié)點演進。
免責聲明 內(nèi)容由AI生成
文章提及標的
優(yōu)刻得-W--
空調(diào)--
周期--
能源--

在AI大模型持續(xù)演進的今天,數(shù)據(jù)中心正迎來一次底層架構(gòu)級的變革。

在TechWeek上海站《液冷2.0:廢熱資產(chǎn)化與算點協(xié)同創(chuàng)新》論壇上,優(yōu)刻得(688158)架構(gòu)師徐智宇圍繞“液冷技術(shù)在數(shù)據(jù)中心的應(yīng)用與實踐”進行了系統(tǒng)分享,從行業(yè)趨勢、技術(shù)路線到規(guī)?;渴鸾?jīng)驗,深入解析了液冷如何成為AI時代算力基礎(chǔ)設(shè)施的關(guān)鍵能力。

過去,傳統(tǒng)數(shù)據(jù)中心主要承載搜索、電商、社交等通用計算業(yè)務(wù),CPU是核心算力單元,單機柜功率密度普遍在6-8kW,風冷足以滿足散熱需求。

但進入大模型時代后,一切都發(fā)生了變化。

當前主流高性能GPU單芯片功耗已達到700W-1400W,8卡AI服務(wù)器整機功耗突破14kW,單機柜功率密度快速邁向50kW、100kW甚至更高。與此同時,“東數(shù)西算”等政策持續(xù)推進數(shù)據(jù)中心節(jié)能降碳,新建大型數(shù)據(jù)中心PUE被要求降至1.25以下。

這意味著,傳統(tǒng)風冷體系已經(jīng)越來越難支撐下一代智算中心的發(fā)展需求。

AI時代,為什么液冷成為“必選項”?

AI大模型帶來的,不只是算力需求增長,更是熱密度的指數(shù)級攀升。

以當前主流GPU服務(wù)器為例,單臺設(shè)備功耗已經(jīng)接近甚至超過傳統(tǒng)單機柜的設(shè)計上限。對于大量部署GPU集群的智算中心而言,散熱能力正在成為制約算力釋放的核心瓶頸。

與此同時,風冷方案也面臨三大現(xiàn)實挑戰(zhàn):

散熱能力接近物理極限:傳統(tǒng)風冷機柜經(jīng)濟散熱上限普遍在15-30kW,難以滿足高密度AI集群需求

能耗與PUE壓力持續(xù)增加:風冷數(shù)據(jù)中心PUE通常在1.45以上,而液冷可進一步降低至1.2以內(nèi)

空間與運維成本上升:風冷需要大量風道與空調(diào)(884113)空間,同時高噪音、高振動、高灰塵環(huán)境也會影響設(shè)備穩(wěn)定性

相比之下,液冷通過液體直接帶走熱量,大幅提升換熱效率,可有效降低能耗、提升部署密度,并顯著改善設(shè)備長期可靠性。

液冷已經(jīng)不再是錦上添花的優(yōu)化選項,而是高密度算力部署的核心基礎(chǔ)設(shè)施能力。

液冷技術(shù)路線,正在走向分層演進

目前行業(yè)主流液冷方案主要包括兩大方向:冷板式液冷與浸沒式液冷。其中,冷板式液冷是當前產(chǎn)業(yè)的主流。

其核心原理是在CPU、GPU等核心發(fā)熱芯片頂部部署冷板,通過液體循環(huán)直接帶走大部分熱量,兼顧高效散熱與現(xiàn)有服務(wù)器架構(gòu)兼容性。由于改造成本較低、部署成熟度高,目前已成為多數(shù)智算中心優(yōu)先采用的方案。

而浸沒式液冷,則代表著更高密度場景下的未來方向。

通過將服務(wù)器整體浸泡于絕緣冷卻液中,浸沒式液冷可以實現(xiàn)全域均勻散熱,進一步突破高功率密度限制。其中,相變浸沒式液冷甚至可將PUE降至1.08以下,成為超高密度算力場景的重要探索方向。

不過,技術(shù)路線并不存在“絕對先進”。

不同方案需要結(jié)合實際業(yè)務(wù)密度、建設(shè)預(yù)算、運維體系等綜合評估:

冷板式液冷:更適合當前大規(guī)模商業(yè)化部署

浸沒式液冷:更適用于100kW以上超高密度場景

液冷真正的挑戰(zhàn),不只是“散熱”

隨著液冷從實驗室走向規(guī)?;涞?,行業(yè)關(guān)注點也正在從“能不能做”轉(zhuǎn)向“如何穩(wěn)定運營”。

在實際部署過程中,液冷系統(tǒng)不僅涉及散熱本身,更牽涉到供冷架構(gòu)、運維體系、安全管理等一整套系統(tǒng)工程。

例如:

如何降低漏液風險

如何實現(xiàn)冷卻液長期穩(wěn)定運行

如何完成CDU冗余與供冷切換

如何解決浸沒式液冷下的設(shè)備吊裝、吹干與維護流程

如何進行復雜的水力平衡設(shè)計

這些問題,都決定了液冷項目能否真正實現(xiàn)長期穩(wěn)定運行。

因此,液冷能力比拼的核心,已經(jīng)不僅是單一產(chǎn)品能力,而是從方案設(shè)計、交付實施到長期運營管理的全生命周期(883436)能力。

液冷的未來,不止于“降溫”

在徐智宇看來,未來3-5年,液冷行業(yè)將迎來三大趨勢:

1、液冷與芯片進一步深度融合

未來冷卻液將更接近芯片本體,甚至直接進入芯片內(nèi)部微流道,實現(xiàn)更高效率散熱,為下一代超高密度算力打開空間。

2、國產(chǎn)化供應(yīng)鏈持續(xù)成熟

隨著國產(chǎn)冷卻液、快接頭、液冷泵等核心部件能力提升,液冷整體成本正在快速下降,行業(yè)有望迎來規(guī)模化普及拐點。

3、數(shù)據(jù)中心向能源節(jié)點演進

液冷系統(tǒng)可輸出40-60℃穩(wěn)定熱水,為城市供暖、工業(yè)余熱回收等場景提供可能。未來,數(shù)據(jù)中心不僅是“算力中心”,也可能成為城市能源(850101)系統(tǒng)的重要組成部分。

優(yōu)刻得:面向AI時代的液冷智算基礎(chǔ)設(shè)施

作為國內(nèi)較早布局AI基礎(chǔ)設(shè)施與智算中心能力的云廠商之一,優(yōu)刻得(688158)持續(xù)推進液冷技術(shù)與智算基礎(chǔ)設(shè)施融合演進。

優(yōu)刻得(688158)自建的位于上海青浦、內(nèi)蒙古烏蘭察布新一代智算中心,全面按照液冷標準進行規(guī)劃設(shè)計,覆蓋冷板式與浸沒式液冷等多種部署能力。(浸沒式液冷詳情:優(yōu)刻得(688158)全浸沒液冷:打造靜冷、高密、綠色的新一代智算底座)重點面向大模型訓練、AI推理、高性能計算等場景,提供高密度、高能效的新型算力基礎(chǔ)設(shè)施能力。

在此基礎(chǔ)上,優(yōu)刻得(688158)也逐步沉淀并形成了面向高密度智算集群建設(shè)的一體化服務(wù)體系,將自身在液冷智算中心建設(shè)與運營中的實踐經(jīng)驗,輸出為可規(guī)模化復制的體系化能力,包括:

液冷數(shù)據(jù)中心整體架構(gòu)設(shè)計

高密度GPU集群部署與調(diào)優(yōu)

智算網(wǎng)絡(luò)與高性能存儲優(yōu)化

AI訓練與推理平臺支撐

智算中心全生命周期運維管理

通過從基礎(chǔ)設(shè)施、算力集群到平臺運維的全鏈路能力整合,優(yōu)刻得(688158)能夠為企業(yè)客戶提供更穩(wěn)定、更高效、更具擴展性的高密度智算集群建設(shè)方案,助力AI業(yè)務(wù)快速落地與規(guī)?;l(fā)展。

免責聲明:風險提示:本文內(nèi)容僅供參考,不代表同花順觀點。同花順各類信息服務(wù)基于人工智能算法,如有出入請以證監(jiān)會指定上市公司信息披露平臺為準。如有投資者據(jù)此操作,風險自擔,同花順對此不承擔任何責任。
homeBack返回首頁
不良信息舉報與個人信息保護咨詢專線:10100571違法和不良信息涉企侵權(quán)舉報涉算法推薦舉報專區(qū)涉青少年不良信息舉報專區(qū)

浙江同花順互聯(lián)信息技術(shù)有限公司版權(quán)所有

網(wǎng)站備案號:浙ICP備18032105號-4
證券投資咨詢服務(wù)提供:浙江同花順云軟件有限公司 (中國證監(jiān)會核發(fā)證書編號:ZX0050)
AIME
舉報舉報
反饋反饋