為什麼微軟要把數據中心設在水下?數據中心製冷有多花錢?

二舅觀察


數據中心和普通的電腦不同,發熱量是十分巨大的,為了保證數據中心穩定運行,數據中心需要配置強大的散熱系統,而散熱系統需要耗費大量的電力。一個正常運行的數據中心,電力成本就要佔到總成本的20%,而散熱系統正常運行消耗的電力成本佔到總耗電成本的40%左右,所以數據中心的散熱成本是非常高昂的。而微軟將數據中心設置在水下,可節省大量的電力成本,大幅提升數據中心的經濟效益,另外減少了對於煤、石油、天然氣等不可再生資源的消耗,更有利於環境的保護。


智慧新視界


    一個數據中心的成本中,電力成本佔了20%左右,其中電力成本中的42%是用來散熱的。因此,谷歌、facebook、IBM等科技巨頭將數據中心建在了冰島、芬蘭等國家。微軟為了減少數據中心的散熱成本,嘗試將數據中心建在水下。


    數據中心製冷有多花錢?

    根據IDC的統計,數據中心的平均使用年限是9年,一個數據中心的電力能耗成本佔據了所有成本的20%。這些消耗的電能,大約有47%進入了服務器,是有效的能耗,而42%的被散熱能耗消耗了。


    這裡瞭解一個數值,PUE(電能使用效率)是評價數據中心能源消耗的指標,計算公式為:

    PUE=總體能耗/IT設備能耗

    可以看出,這個數值越接近1,能源效率越高。

    根據相關數據顯示,我國新建的大型雲計算數據中心的PUE值小於1.5。其中,製冷消耗的電力佔據了服務器電力消耗相當大的比重。

    微軟的水下數據中心

    微軟的水下數據中心,由很多白色的鋼桶組成,外表覆蓋熱交換器,內部是一個數據中心計算機架,裡面加註了氮氣。這種“海底膠囊”可以停留在海底長達5年的時間,期間不需要維護。

    還要一點,它可以從海水運動中收穫電能,而且這種海底膠囊散發的熱量也很少,不會影響到海洋環境。


    總之,隨著雲計算、大數據等新興技術的發展,企業IT基礎設施建設飛速發展,服務器機櫃不斷增加、機房動力系統、空調系統等設施不斷增加,隨之而來的時能源效率低,耗電量大,電費支出高等。如何能夠降低PUE,是數據中心建設需要考慮的,相信未來會有更多的花式降溫法。

如果覺得對你有幫助,可以多多點贊哦,也可以隨手點個關注哦,謝謝。

Geek視界


感謝您的閱讀!

數據中心放在水下,似乎解決了散熱問題,可是投資大,維護困難,微軟是不是“搬起石頭砸自己的腳”,最終得不償失呢?

圖源來自NYTimes:

早在2014年,微軟就有此設想,2015年微軟將服務器塞進了一個“圓柱體的膠囊”,在10米深的海水裡,時間超過了大家的預期。

之所以放入海底,真的能夠帶來好處嗎?

  1. 節省電費。因為在一般的服務器需要空調進行散熱,海底就解決了耗電問題,不可能裝更多的空調。
  2. 降溫。因為在這款設備中,它是在膠囊里加入了壓縮氮氣,能把熱量有效地散入海水,從而達到降溫目的。

不可否認:維修成本,故障突擊都會對於微軟有不小的影響。

在2018年,微軟將Northern Lsles數據中心投入到蘇格蘭奧克尼群島,並且使用風能潮汐能以及太陽能解決用電問題。

而在服務器中通過使用散熱管,注入海水,完成冷卻效果。

現在我們對於微軟的這臺水下服務器的表現如何還是會比較期待的,畢竟這確實有助於微軟開創全新的散熱模式,雖然維護和外殼耐久度都會成為問題。

其實,國內大部分企業將數據中心放在了貴州,就是看重貴州的均衡氣候和電力資源等等,所以散熱和電力確實是一個數據中心的難點。


LeoGo科技


微軟的海底數據中心就有點像谷歌在南極的數據中心,這些地處特殊地理環境的數據中心都有很多的優勢,比如:

1、海底擁有足夠大的發展空間和土地面積,在海底建設數據中心根本不用擔心以往在陸地上建設數據中心遇到的種種問題。

2、節能節電,這應該是海底數據中心最大的優勢,畢竟一座數據中心最大的運營成本就是電費,如果溫度高還需要更多的散熱空調產生的電費,但是在海底,不僅基礎溫度低,而且水冷散熱也能大大降低數據中心的溫度,所以把數據中心建在海底,對於微軟的製冷成本可以大大降低,這也有利於客戶。

3、運輸成本低,海運是最廉價的運輸方式,建設過程中物流成本較低。

4、很多人可能覺得海底數據中心維護起來很麻煩,還得潛水,但是實際上維護成本並沒有想象的高,因為機房可以升出海面維護,並不需要潛水。

所以說,數據中心如今根本不需要在大城市或者發達地區建設,就像貴州大數據把機房放在山上,除了安全戰略以外,海拔高的地方溫度低,散熱方便,而且還有便宜的水電可供使用,微軟把數據中心放在海底也是處於類似的考慮,隨著技術的不斷成熟,未來在海底部署數據中心的公司也可能越來越多。


嘟嘟聊數碼


微軟要在蘇格蘭奧克尼群島附近沉沒一個像集裝箱一樣大的數據中心,不僅需要廉價的電力,免費的散熱設備,還需要接近世界一半人口的居住地。建在這裡的最大希望是,能夠有一個真正低溫且成本便宜的數據中心,運行更頻繁且發生故障的次數更少。

更節省資源

為服務器建造潛水艇聽起來可能很昂貴,但是考慮到總體擁有成本,其中大部分是前期準備,管理微軟研究項目的本·卡特勒在接受採訪時對數據中心知識說。他說:“我們認為該結構可能比今天的數據中心更簡單、更統一。雖然所有這些都仍然是假設的,但是最終期望實際上可能會有成本優勢,更便宜。”

將計算機置於水下並不是什麼新鮮事,不僅對於Microsoft而言。海洋科學家已經做了很長時間了,但是還沒有大規模地這樣做。海洋工業在建造大型結構,冷卻船舶發動機以及處理在水下表面堆積的藤壺方面具有豐富的經驗。卡特勒說:“與人們幾十年來在海洋中所做的事情相比,我們所做的事情相對溫和。我們處於相對較淺的深度,而且這數據中心相對較小。”

供應鏈已基本到位

微軟可以利用其硬件專業知識和供應鏈,用商品服務器填充水下數據中心。實際上,“ Northern Isles數據中心”中的12個機架,864個服務器和FPGA板是來自旱地上的Microsoft Azure數據中心。圓柱形外殼是由一家知名的海洋工程公司Naval Group製造的,如果這個想法得以流行和可實施,就可以批量生產和運輸。

卡特勒說,時間框架和經濟性與在陸地上建立數據中心大不相同。“不是建設項目,而是製造產品,它在工廠中製造,就像我們放入其中的計算機一樣,現在我們使用標準的物流供應鏈將它們運送到任何地方。 然後還需要乘坐渡輪穿越英吉利海峽,穿越英國,再乘另一艘渡輪到奧克尼群島,然後將其裝在駁船上進行部署。

能夠更快地部署不僅意味著更快地擴張,還意味著沒有提前花錢。卡特勒說:“在某些情況下,我們需要18個月或2年的時間才能建立新的數據中心。想象一下,如果我只是將它們作為標準庫存,那麼我可以在90天內迅速將它們送到任何地方。現在資金成本有很大不同,因為不必像現在這樣提前建造東西。只要我們處在這種模式下,我們的Web服務以及隨之而來的數據中心都將呈指數級增長,那就是巨大的槓桿作用。”

停機也可以節省保修

在將所有服務器替換為新服務器之前,一次將數據中心停機5到10年與許多雲服務器的生命週期沒有太大區別,隨著新硬件的出現,雲服務器可能會重新用於不同的服務。五年的承諾意味著可以節省更多的預付款。

卡特勒指出:“如果還是維持舊的方案,保修成本可能很高。就我們而言,也許我們會把它退回給供應商,但這種維持不下去。”因為這些保修成本很高,每個組件供應商都必須保持所售組件的庫存,以保證產品使用壽命。他解釋說,英特爾可能每年都會推出一種新芯片,但是它必須保持五年來的庫存。“就我們而言,一切麻煩都消失了。我們將其放到那裡,我們就完成了任務。我們永遠不會再找供應商說更換該磁盤驅動器,因為到了五年後,我們也不用管理這些東西。”

規模可大可小

儘管Orkney數據中心是單個模塊,但Cutler設想將多個模塊連接在一起以實現規模化,也許需要一個用於連接和配電的中央節點,將它們像常規數據中心中的機架排一樣對待。容器間延遲將類似於大型數據中心網絡中的延遲。一些較大的Azure數據中心相距一英里。

Microsoft數據中心中的每個機架頂交換機都連接到骨幹交換機,這些骨幹交換機在該行的所有機架上串擾。下一級,主幹交換機彼此交叉連接。“這些東西之間可能有相當大的距離。如果我們在水中放很多,那就沒什麼不同了。”

在邊緣部署中,單個模塊可能是Azure Stack的理想選擇,該Azure Stack可為越來越多地部署在海底的勘探石油和天然氣鑽井平臺處理地震數據。

綠色資源潛力

一旦水下數據中心啟動並運行,電力和冷卻成本就會降低。Project Natick的第一個小得多的版本(Microsoft研究工作的代號)具有一個帶有不同閥門的歧管,以使團隊可以嘗試不同的冷卻策略。PUE為1.07(Microsoft最新一代數據中心的PUE為1.125)。據卡特勒估計,如果沒有歧管,該成本將低至1.3。

另外,這一次沒有外部熱交換器。他說:“我們正在通過機架後部的熱交換器將原海水吸入並再次排出。”他指出,這是用於冷卻船舶和潛艇的相同技術。水流的速度應阻止藤壺的生長。該冷卻系統可以應對非常高的功率密度,例如用於重型高性能計算和AI工作負載的裝有GPU的服務器所需的功率密度。


北島數據中心利用了歐洲海洋能源中心的潮汐發生器。Microsoft設想將海洋數據中心與這些離岸能源一起使用。但是未來的版本也可能擁有自己的發電能力。

“潮流是一種可靠的,可預測的東西;我們知道何時會發生。”卡特勒說。“想象一下,我們有潮汐能,我們有電池存儲,因此您可以在整個24小時週期和整個月球週期內保持平穩行駛。”

代替備用發電機和裝滿電池的房間,Microsoft可以過量提供潮汐發電量以確保可靠性(例如,潮汐渦輪機由13臺代替了10臺)。“最終您會得到一個更簡單的系統,該系統是完全可再生的,並且具有最小的佔地面積。”

沒有增加本地資源的負擔

這種設備使用海洋供電和製冷的環境影響相對較小,這使得在更多地方部署數據中心變得更加容易。

現代數據中心的製冷更多地依靠水而不是電力。卡特勒解釋說:“過去用於冷卻的功率令人難以置信,隨著時間的推移,我們已經能夠將功率大幅降低。但是水被用來增強冷卻效果。”

數據中心通常有一條通往城市供水的管道,這在發達國家的許多地方都可以,但在其他地方則沒有。卡特勒和他的團隊喜歡這樣的想法:將數據中心帶到發展中國家的某個地方,而不會對當地的水或電力供應施加任何限制。“對電力網沒有壓力,對供水沒有壓力,但是我們帶來了更多的計算機資源。”


大魔王Hacker


最近微軟在數據中心業務上有了個新的方向,就是把數據中心沉入海底:

該技術利用原本為潛艇研發的散熱技術,利用海底的低水溫來為數據中心散熱。計劃將來建成服務器農場,整個放置在水下以節約寶貴的電能:

微軟為什麼要這麼做呢?這種技術能節約多少電能,也就是錢呢?我們今天就來詳細瞭解一下。製冷能耗佔比

到底製冷所消耗的能源有多花錢呢?我們先來看一下服務器機架的總擁有成本(TCO)。TCO可以幫助我們瞭解服務器在購買和使用中整體的使用成本,有助於瞭解整體的花銷,而不是僅僅購買時的短暫的肉痛。TCO包括三個構成: 投資成本、運營成本和能源成本。

因為機架裡面的服務器價格大不相同,我們刨去這部分的成本。據 IDC 統計,數據中心的平均使用年限為 9 年。然而 Gartner 的數據顯示任何運營超過 7 年的設施都趨於陳舊。為了簡化,假定使用年限為10年。一個典型的數據中心的TCO構成為:

可以看出,電力能耗成本佔據所有成本的20%!是數據中心主要的成本。

這些電能都去哪裡了呢?一個典型的服務器機架,能源消耗構成如下圖:

能源消耗大約只有47%的部分進入了服務器(紅框部分),這才是有效的能耗。而41%的部分被散熱消耗掉了!

一個典型的數據中心能源和散熱構成如下:

散熱部分包括機架風扇,空調、泵機和散熱塔。這些部分消耗的能源佔據數據中心能源消耗的很大一部分,也在TCO中佔據的很大的比重。

這裡要提一下PUE。電能使用效率(PUE)是評價數據中心能源效率的指標,它的計算很簡單:

PUE = 總體能耗 / IT設備能耗

我們可以看出,PUE 值越接近於 1,數據中心的能源效率越高。我們一起來計算一下上個例子中PUE的值。

PUE = 1/0.47 = 2.12

這個數據怎麼樣呢?我們來看一下2011到2014美國平均PUE是多少:

這個是廠家自己報告的,實際上Uptime Institute 於 2012 年對全美 1,100 家數據中心和其運營主管所做的調查顯示,數據中心 PUE 平均值為 1.8-1.89。而其中,仍有高達 34% 的數據中心超過 2.0,技術不發達國家的數據中心的效率只會更低。我們這個2.12的數據代表了平均水平。

在這裡Google做的比較好,它的PUE值相當低:

在我國,按照《“十三五”國家信息化規劃》,到2018年,新建大型雲計算數據中心PUE值不高於1.5;到2020年,形成具有國際競爭力的雲計算和物聯網產業體系,新建大型雲計算數據中心PUE值不高於1.4。結論

製冷消耗的電力佔據服務器電力消耗相當大的比重,進而也在數據中心TCO中佔據很大部分。而微軟將數據中心沉入海底,無疑會極大的降低製冷消耗的電力,降低PUE,從而為微軟以及購買微軟雲服務等的客戶節約金錢。

隨著雲計算、大數據等新興技術趨勢的發展,企業的IT基礎設施建設也呈現飛速發展狀態。服務器機櫃不斷增加,機房空間不斷擴大,UPS電源、機房空調等相關設施不斷增加投入,隨之而來是能源利用效率低、耗電量大,電費支出超過基礎設施建設成本。據統計,全球的數據中心每年消耗的電量佔全球總電量的2%左右,調查顯示能源消耗成本已佔到IT行業運營成本的30%到50%。如何降低PUE,進而降低TCO,這也是包括微軟外,所有服務器從業者的研究方向。我們可以期待,會有更多更有趣的花式降溫方法!


瓦力機器人編程01


帆辰科技專注於科技資訊,帶你遨遊科技世界!


現在的眾多的高科技企業都在做一個共同的新方向,就是在數據中心業務上將屬於本企業的核心數據來說,都是將本企業的數據中心沉入海底,那麼下面和大家一起來說一說為何這些高科技企業會做出這樣的選擇。

利用海水的低溫來為數據中心來散文,從而能夠減少電能的消耗,很多用戶可能對於這個原因是比較模糊的,認為這些高科技企業的收入都是非常的高的,而對於這些電能的資金消耗又會有怎麼樣的在乎的,其實這個還是有一定的理由的,因為這些龐大的數據中心所能夠產生的熱量是非常的大的,如果是建設在陸地上的話,那麼必須要有一個專門為之散熱的裝備。

而且這些專門散熱的裝備來說,其實每年所要消耗的電能來說,其實無疑是巨大的,即便是對於收入很多的高科技企業來說,其實一筆不菲的支出,所要想辦法能夠減少支出,也是這些企業要想的辦法。


曾經有這樣的一組數據說,這類型的數據中心來說,其總共包含有投資成本和運營成本,還有重要的就是能源成本,而其中的電力損耗的成本就需要達到所有成本的20%左右的份額,所有這就是為何眾多高科技企業將自己的數據中心放在水中的重要原因。

從這方面就能夠看到,其實企業的數據中心的製冷消耗的電力所佔據的比重也是很大的,而將數據中心放到水中,一方面能夠降低電能的耗損,另外一方面還能夠使得自己的數據中心更加安全。


最後,對於說高科技企業將自己的數據中心放到水中的這樣的做法來說,在這裡給大家做一個總結,其實本質的原因就是為了能夠給企業節省費用,還有一個方面的原因就是更加能夠保護器安全性,那麼大家還有什麼不同的看法,可以在下方留言,咱們一起探討!


帆辰科技


微軟每天都要運行大量的數據,所以數據中心就是微軟的大腦。隨著計算能力的提高和運營速度的加快,公司的數據中心可以正常運行。良好的散熱條件是非常必要的。除了做好熱處理工作外,還必須考慮降低能耗和降低企業成本。

研究發現,運行一個單一的數據至少佔電力成本的20%,而熱耗散佔電力成本的42%。如果你每年投入資金來處理操作數據所產生的熱量,其成本無疑是巨大的。散熱不好,機器會出故障,整個系統會癱瘓,散熱是必要和重要的。

讓我們看看一些最常見的散熱方法,風冷,液體冷卻,半導體和化學制冷。其中,空冷和液冷具有成本低、使用方便、半導體和化學制冷成本高、大量使用成本高、耗電量大等優點。與公司利潤的目的相沖突。因此,最好選擇一種低成本的散熱方式。在液體冷卻的情況下,水是最好的冷卻工具。水的蒸發吸收熱量,這是眾所周知的物理原理,也就是說,微軟把數據中心放在水裡,而不是電裡來散熱。同時帶走大量的熱量,節能環保,操作簡單方便。

一個路過的醬油瓶


服務器發的熱,降熱很重要,太熱肯定會影響服務器的性能,嚴重會燒機。


Java猿


作為冷卻工藝這碗飯吃了快20年的專業人士,毫不客氣地說,專家在數據中心冷卻方面過於幼稚,當然也包含微軟與臉書在內。

一、對數據安全的恐懼,導致能源浪費:馬雲提到,阿里數據中心停用一分鐘可能有幾個億的損失。

實際服務器核心發熱件正常工作溫度是80度,即使按60度控制,仍然遠遠達不到強制製冷的工藝條件。這個溫度是自然冷能就可以控制的範圍。自然冷能的合理能耗小於發熱量的2%,對應PUE為1.02。再低已經沒有意義,不如在服務器方面挖潛。服務器芯片之外降耗10%不存在任何技術問題。

二、沉入海底𣎴切實際:維護困難,得不償失;投資過大,省的錢不夠利息。服務器並不能浸入海水,只是利用密封殼體與海水換熱,傳熱係數也就200W/m2.K,以20度換熱溫差計算,一個20Kw的刀片組,得5平方米表面積的密封殼體。豆腐成本比肉貴,完成禁不起經濟性檢驗。

三、製冷或冷卻方面,技術仍然十分落後:根據實踐經驗,普通浪費了5至30倍能源。這個問題說明,在追求高精堅的同時,所有人都忽視了底層研究,捨本求末。


分享到:


相關文章: