在美國西部登陸Facebook帳號,你的資料就很可能被一台由杜鬆和俄勒岡中部沙漠地區夾雜鼠尾草氣息的空氣而冷卻的電腦調出。
在人口大約為9000人的小鎮Prineville,Facebook存儲了數以億計的海量數據。一排排的電腦被安放在四座巨大的,總計八十萬平方米的建築裏。它們整齊地排放着,好像要讓來自西北的乾冷風吹拂過每一台電腦。每當用户登錄,點贊或者是發送LOL的時候,這些閃着藍綠色光的服務器都會發出沉悶的低吼。
Facebook最近剛加入一些新機器到Prineville的服務器大軍中。同時,公司也裝載了新的大功率服務器,旨在加速對軟件翻譯、更聰明的虛擬助手以及文字識別等人工智能技術的訓練。
Facebook新的Big Sur服務器是圍繞本來為圖片處理而開發的大功率處理器——GPU來設計的。這些處理器加強了最近人工智能的一個技術飛躍——深度學習。由於GPU使得如何訓練軟件的舊觀念被運用到更廣大更復雜的數據集中,軟件可以變得驚人的“善解人意”,特別是在理解圖片和文字方面。
Kevin Lee,Facebook一位致力於服務器工作的工程師表示,他們在幫助Facebook的研究員們通過以運行更快、使用更多數據的方式來訓練軟件。”這些服務器是人工智能和機器學習研究的專用硬件。GPU可以記錄一張照片,把它們分成無數小像素,然後同時處理。”
每8個GPU就配置一台Big Sur服務器,Facebook使用的是擅長於圖像識別的半導體供應商Nvidia製造的GPU。Lee沒有確切表明到底配置有多少服務器,但是據他所説,有數千塊GPU在工作着。公司的Prineville,Ashburn和Virginia的數據中心都安裝了Big Sur服務器。
因為GPU極其耗能,與數據中心裏其他服務器不同,Facebook不得不把它們排放鬆散,以免產生過熱點,給冷卻系統帶來麻煩,以至於耗能更多。現在每個七英尺高的架子裏都只能放下八個Big Sur服務器,而這些架子過去可以容納30個只負責做一些用户數據處理等日常工作的Facebook常規服務器。
在運行大數據中心和運用GPU來進行機器學習研究這些方面,Facebook不是唯一一家。海內外的巨頭,比如微軟、Google以及百度等也運用GPU來進行深度學習的研究。
社交網絡是非比尋常的。它開創了Big Sur服務器設計、其它服務器設計,以及建立Prineville數據中心的新紀元。公司把這些設計和計劃捐獻給了一個非盈利項目——開放計算項目(Open Compute Project)。這個項目由Facebook於2011年發起,旨在鼓勵計算機公司互相協作,設計出低耗高效的數據中心硬件。這個項目至今已經幫助了數家亞洲硬件公司,搶佔了一些傳統供貨商如戴爾和惠普的市場。
Facebook AI研究項目的主管Yann LeCun説道,當今年早些時候Big Sur服務器宣佈使用的時候,他相信該技術通用之後,會有更多組織建造強有力的機器學習基礎設施,然後加速此領域的發展進程。
不過,未來機器學習服務器建造的計劃可能不會以GPU為核心,如今很多家公司在致力於新芯片的設計。相比於GPU來説,這種芯片是特別為深度學習的算法而製作的。
今年五月,Google宣佈其已經開始使用自己設計的TPU芯片來驅動產品中的深度學習軟件,如語音識別。在訓練之後,這一代的芯片似乎更適合於運行算法,而不是像Big Sur服務器一樣,最初的訓練步驟是為了加速。但是,Google已經開始第二代芯片的研究。Nvidia和其它幾家新公司包括Nervana也在開發為深度學習定製的芯片。
普渡大學副教授Eugenio Culurciello表示,深度學習的有效性意味着這種芯片將會被廣泛應用。“市場對這種芯片已經有巨大需求了,而且這種需求只增不減。”
當被問到Facebook是否在開發定製芯片時,Lee表示,公司正在“研究中”。
資料來源:雷鋒網
作者/編輯:伍婧怡
請按此登錄後留言。未成為會員? 立即註冊