人工智能毫無疑問是當前最熱的商業話題之一,從上層的語音識別、翻譯及機器學習,到python等適用于深度學習的語言以及各式算法,與人工智能相關的議題總不缺乏熱度。人工智能潛力巨大,但是萬丈高樓平地起,任何一個人工智能的算法或者系統都需要一個高效的底層平臺進行支撐。
深度學習:算法是靈魂 基礎架構是引擎
深度學習是人工智能最廣泛的應用領域,它使用高性能計算機識別海量數據中的模式和關系。算法可以說是深度學習的靈魂,訓練模型、處理數據的方式都由算法定義,而算法需要在基礎架構驅動下才能高效運作,基礎架構也是整個人工智能的引擎。
2018年4月28日,hpe apollo6 gen10服務器在全球發布,單臺服務器最高支持8個nvidia tesla gpu,支持pcie與nvlink 2.0的雙重選擇,并具備高帶寬和低延遲的網絡。hpe apollo 6 gen10服務器由gen9系列迭代發展而來,不僅全面繼承了hpe在服務器上多年的設計經驗,并且軟硬件都進行了全面的升級。
隨著這一新品進入市場,基于gpu的主流服務器在算力等參數上將上升到一個全新的高度,各類深度學習的場景也將有一個更加高效、易用、成熟的服務器選擇。
apollo6 gen10:
深度學習場景的最優引擎
業內領先的硬件配置與性能參數,加上hpe與英偉達在服務器及gpu領域的影響力,使得hpe apollo 6 gen10系統成為人工智能領域最高端的引擎。不僅是gpu與計算架構進行了升級,要使得整個系統的性能不留瓶頸,就需要計算、網絡和存儲都使用最高性能的方案,hpe apollo 6 gen10服務器在此三個方面有了諸多新的設計,所以可以從計算、網絡和存儲三個方面解讀這一人工智能神器。
hpe apollo 6 gen10前視圖
首先是最高8顆gpu的計算架構,并且支持nvlink2.0,這是相比上一代產品的一個重要升級。簡單的說,nvlink是一個能夠在gpu-gpu以及gpu-cpu之間實現高帶寬直連通訊的快速互聯機制。單個nvidia tesla v100 gpu 即可支持多達六條nvlink鏈路,總帶寬為300gb/秒,這是pcie 3.0帶寬的10倍。
基于nvlink 2.0的超立方網格拓撲架構
采用nvlink2.0的高效混合立方網格是目前最為高性能的解決方案,不同的gpu之間通信帶寬已經接近極限。另一方面,用戶也可以使用基于pcie的4:1或8:1的gpu:cpu連接。不同拓撲在高性能與易用性上各有優勢,適用各種場景,用戶可以根據業務模型靈活的選擇。
網絡層面,每臺服務器支持多達4個高速適配器,除了以太網,還支持擁有更高速度的omni-path架構、infiniband edr結構以及未來的 infiniband hdr,滿足深度學習場景高帶寬的需求。
存儲層面,hpe apollo 6 gen10支持nvme ssd,相比sas ssd,nvme ssd擁有更高的帶寬和更低的延遲,能夠保障上層系統應用產生的數據第一時間下刷到存儲層,避免存儲成為瓶頸。
除了打通從計算到網絡再到存儲的整個鏈條上所有環節之外,hpe apollo 6 gen10配備4個hpe 2200w白金電源(2+2冗余),并且每個服務器有5個熱插拔風扇模塊,提供堅實的供電、散熱等保障。
hpe apollo 6 gen10模塊化設計
先進的核心計算架構、從計算到網絡再到存儲的高效模塊化設計和精心設計的電源及散熱系統,使得hpe apollo 6 gen10不僅能夠滿足各類深度學習應用場景需求。高度易用性和靈活性,充分降低了構建高性能人工智能系統的門檻,企業可以在hpe apollo 6 gen10構建的堅實基礎架構上以最短的時間完成對各類算法的訓練。
來源:網絡
以上是網絡信息轉載,信息真實性自行斟酌。