NVIDIA DGX-2

來源:http://bangqu.com/pWKpdB.htmlNVIDIA DGX-2
NVIDIA 家族性能最強大的人工智能係統,從容應對眾多複雜的人工智能挑戰

NVIDIA DGX-2是NVIDIA首款2-petaFLOPS系統,它整合了16個完全互聯的GPU,使深度學習性能提升10倍,突破了人工智能速度和規模的障礙。
它採用NVIDIA ®DGX™軟件和基於NVIDIA NVSwitch技術構建的可擴展架構,可以幫您應對眾多複雜的人工智能挑戰.





==========

3月23日起,我們聯合NVIDIA推出「實戰營」第一季,共計四期。第三期於4月13日晚8點在智東西「智能安防」系列社羣開講,由西安交通大學人工智能與機器人研究所博士陶小語、NVIDIA高級系統架構師易成二位講師先後主講,主題分別爲《智能監控場景下的大規模並行化視頻分析方法》和《NVIDIA DGX-2 驅動智能監控革命》。

NVIDIA在GTC 2018大會上發佈了新一代超級計算機DGX-2,在兩塊獨立的GPU板卡上配備了16塊Tesla V100 GPU,每塊V100擁有32GB HBM2顯存(共512GB),並且採用12個NVSwitch將16塊GPU採用全線速互聯的方式連接,使得任意兩塊GPU之間P2P總帶寬都是300GB,處理器採用了兩顆英特爾至強Platinum CPU,而存儲方面則配置了1.5TB的標準內存,採用30TB的NVMe SSD,提供了更大的緩存空間,能夠實現每秒2千萬億次浮點運算(2 PFLOPS),性能比去年9月推出的DGX-1性能提高了10倍。

本文爲NVIDIA高級系統架構師易成的主講實錄,共計4378字,預計7分鐘讀完。在瀏覽主講正文之前,先了解下本次講解的提綱:

-NVIDIA DGX服務器的特點和在深度學習方面的優勢
-NVIDIA P100和V100的深度學習計算性能對比分析
-V100 GPU的新特性及加速庫的應用

智東西「實戰營」第一季第一期由圖瑪深維首席科學家陳韻強和NVIDIA高級系統架構師付慶平,分別就《深度學習如何改變醫療影像分析》、《DGX超算平臺-驅動人工智能革命》兩個主題在智東西旗下「智能醫療」社羣進行了系統講解。第二期由NVIDIA深度學習學院認證講師侯宇濤主講,主題爲《手把手教你使用開源軟件DIGITS實現目標檢測》。第四期是在智東西旗下「高性能計算」社羣開講,主題爲《GPU加速的空間天氣預報》,主講老師爲清華大學計算機系副教授都志輝、NVIDIA高級系統架構師易成。

「提醒:如果希望下載每期實戰營的完整課件,可以在智東西公衆號(zhidxcom)回覆關鍵詞「實戰營」獲取。如果你希望成爲講師,可以回覆關鍵詞「講師」,進行申請」

易成:大家晚上好,我是NVIDIA的系統架構師易成,今天講解的主題是《NVIDIA DGX-2 驅動智能監控革命》,前面陶老師的介紹非常精彩,我給大家講解下GPU和DGX相關的技術,做深度學習和智能安防相關的同僚,可以多留意一下。

首先NVIDIA的產品主要運用在這三個領域:

1、GPU計算卡,主要做深度學習和高性能計算等,屬於Tesla系列,是專業級的產品;
2、圖形顯卡,用於做電腦的圖形顯示、圖形渲染等,屬於GeForce、Titan系列,是消費級的產品;
3、Tegra系列,用於智能終端機器人,自動駕駛領域,是嵌入式的產品。

自從NVIDIA 2006年發佈CUDA以來,GPU計算已經走過了十年的歷程,從早期的HPC計算到現在廣泛應用的人工智能深度學習領域,GPU的性能越來越高,功能也越來越豐富,使用的領域也越來越廣。


GPU計算在視頻編解碼、圖像識別、智能視頻監控、語音識別、自然語言處理等領域都有廣泛的應用,陶老師前面已經做了非常詳細的介紹,這方面我就不多說了。


GPU的計算能力已經很強了,但是要解決現實中的問題,一塊GPU或者一臺八卡的GPU服務器是遠遠不夠的,很多人工智能的應用都需要大規模的GPU集羣進行計算,比如百度的語音識別系統,其網絡模型的參數達到3億個,需要20億億次計算量,谷歌的自然語言翻譯系統有87億個參數,大約需要100億億次的計算量,這些都需要大規模的GPU集羣。


剛纔陶老師介紹了P100做視頻監控的應用,現在我們看一下P100和V100的性能比較。從理論峯值來看,V100的混合精度性能可以達到125TFLOPS,比P100提升了十倍多,這是因爲V100裏面增加了新的計算核心Tensor code,而P100是沒有的。Tensor code可以支持FP16和FP32的混合乘加計算,適合做深度學習的Training(訓練)和Inference(推理)。


這張圖展示了V100和P100做深度學習Training和Inference的性能對比,加速效果還是非常明顯的,V100相對P100 Training速度提升了2.4倍,Inference速度提升了3.7倍。


這張圖展示的是在DGX-1平臺上V100和P100在不同的深度學習框架上做Training(訓練)的性能對比,最少的是PyTorch,提升了2.4倍,最多的是MXNet,提升了3.1倍。


V100是去年發佈的,只有16GB的顯存。今年3月份NVIDIA發佈了新的V100,顯存提升了一倍,增加到了32GB。雖然其他性能參數沒有變化,但是顯存增加一倍,也能給深度學習計算帶來顯著的性能提升。數據從主機內存加載到GPU顯存一直是GPU計算性能提升的一個瓶頸,現在32GB的顯存可以加載更多數據,降低了數據I/O(輸入輸出)的開銷。


這張圖上就是最新的V100 GPU,顯存是32GB,其他參數現在沒有什麼變化。


32GB的V100也有NVLink和PCIE兩種版本,除了顯存提升到32GB之外,其他參數和原來的V100相比也沒有什麼變化。


前面我們介紹了GPU和32GB的V100 GPU。下面我們來看一下DGX服務器,首先我們看一下DGX-1,一臺DGX-1包含8塊NVLink V100 GPU,兩顆Xeon處理器,512GB內存,4個100GB InfiniBand EDR網口,8TB SSD本地存儲空間,一共有4個1600W電源,系統功耗是3200W,8個NVLink GPU採用立方體結構的互聯方式,這種方式並不能保證任意兩塊GPU之間的速率都是相同的,且任意兩塊GPU之間P2P帶寬小於300GB/s。


由於DGX-1 GPU互聯採用立方體的架構,GPU之間的P2P帶寬並不能達到300GB的理想速度,因此今年NVIDIA發佈了新產品DGX-2,它的超強性能將不負衆望。這款產品今年第三季度可以供貨,DGX-2是一款標準機架式服務器,功耗10千瓦,因此對機櫃的供電和散熱會有一定的要求。


這是DGX-2的內部架構,和DGX-1相比,配置大幅度提升,首先是16塊32GB的V100 GPU,12個NVSwitch,16塊GPU採用全線速互聯的方式,任意兩塊GPU之間P2P總帶寬都是300GB。CPU採用Intel最新的鉑金版CPU,配置1.5TB主機內存,比DGX-1提升3倍,8個100GB IB網卡,30TB NVME SSD提供了更大的緩存空間。


上圖展示的是18端口的NVSWITCH交換機,每個端口是50GB的雙向總帶寬,NVSWITCH包含20億個晶體管,是目前速度最快的交換機。


這是DGX-2內部GPU互聯的架構圖,DGX-2有12個NVSWITCH,每個GPU主板上有6個NVSWITCH,將16個GPU全部互聯起來,我們知道每個GPU上有6個NVLink通道,每個通道連接一個NVSWITCH,所以每個GPU會和主板上的6個NVSWITCH互聯,每個GPU主板上有8個GPU,所以每個NVSWITCH會有8個NVLink通道進來,也有8個NVLink通道出去,連接到NVBridge的背板上,也就是圖中的中間橋樑部分,每個GPU主板的NVSWITCH共有48個NVLink接到背板上,因此背板的總帶寬是2.4T每秒。

這裏我們要了解兩個概念,一個是NVSWITCH,一個是NVBridge,GPU和NVSWITCH相連,NVSWITCH和NVBridge相連。


這是一臺DGX-2和兩臺DGX-1的性能比較。一臺DGX-2和兩臺DGX-1的GPU數量是相等的,但是兩臺DGX-1的CPU資源比一臺DGX-2的資源多一倍,我們發現運行物理學、氣象、深度學習的應用時,DGX-2最少可以實現兩倍的加速。


現在我們小結一下NVIDIA的產品線,現在NVIDIA有DGX的服務器,DGX 工作站DGX Station,DGX Station是水冷散熱,靜音效果非常好。服務器和工作站都可以支持32GB V100,還有用於做Inference的 P4 GPU,P4可以支持Int8數據類型。除此之外,我們還有用於自動駕駛的Drive PX2和嵌入式產品Jetson TX1。


如果是做GPU計算的朋友,可能對這個GPU計算平臺的架構比較熟悉了,我們現在已經建立起了比較完善的GPU計算生態系統,可以用的工具非常多,有大量的GPU計算APP,如果我們要做開發的話,可以得到非常多的GPU加速計算工具和相關的資料,程序移植也比較方便,也有很多封裝好的支持GPU的框架平臺可以使用。


這裏我想給大家介紹的是容器工具,DGX服務器中已經集成了容器平臺NVIDIA-Docker和主流的深度學習框架。NVIDIA-Docker容器引擎是開源的軟件,大家都可以下載使用。NVIDIA-Docker原生的Docker相比可以更好地調用GPU,也更穩定。和直接在物理機上運行軟件相比,使用容器省去了軟件安裝、編譯和部署的過程,避免軟件依賴和兼容性的問題,節省了大量的時間,性能損失也非常小,一般容器的運行只有3%左右的損失。


下面給大家介紹一下NVIDIA的NGC平臺,這是一個可以免費註冊的平臺,在NGC平臺,大家可以下載各個版本的DeepLearning深度學習框架的容器鏡像、開源的HPC應用軟件容器鏡像以及可視化軟件的容器鏡像,即使你不想使用容器,這個平臺也是非常有用的,你可以將容器中編譯安裝好的軟件拷貝到物理機上運行,可以省去你軟件安裝、編譯和部署的時間。


最後介紹一下Inference(推理)軟件TensorRT 4.0,這是今年新發布的一個版本,和3.0版本相比,增加了RNN、MLP 層的支持,也可以支持ONNX格式文件等功能。現在已經可以點擊圖上鍊接下載,歡迎大家使用。

我的演講到這裏就結束了,謝謝大家。

另外,講師易成在Q&A環節回答了3位用戶的提問:

問題一
雷晨雨-平安科技-深度學習算法工程師

有沒有在imagenet數據集上做過完整的訓練性能比對,比8卡titanXP快多少,或者其他的性能比較?

易成:很多用戶都關心這個問題,經常會問我們P100、V100和Titan的性能比較怎麼樣,由於P100和V100是我們Tesla系列的產品,屬於專業級別的GPU卡,TITAN和GeForce都屬於消費級的產品,有些消費級的GPU,還有非公版的產品,有些GPU甚至會犧牲壽命來將主頻調高,所以我們不會和這兩類產品做對比,但是二者的功能和性能區別還是挺多的,大家可以對比一下,我這裏找到了一個網上的文章,可以分享給大家看看NVIDIA GPU—Tesla和GeForce的比較。http://blog.51cto.com/andyliu/1942473?from=timeline。

問題二
曹偉-安維爾信息技術-工程師

1,嵌入式tegra,消費顯卡計算以及專業卡在視頻安防處理的優缺點
2,現在顯卡計算方案和fpga以及現在tpu和一些ai芯片的優缺點
3,GPU硬件解碼對編碼格式的支持情況
4,目前GPU如何解決大規模數據運算時,保證GPU的有效利用率

易成:1,這幾種設備使用場景不同。嵌入式Tegra,主要用在智能終端,移動端,智能汽車,攝像頭等場景,這種芯片體積小,功耗低,但計算能力相對較弱,主要做inference。消費級GPU可以一般是個人開發者用來做training應用,功能和性能不如Tesla專業GPU。Tesla GPU則是大規模部署在數據中心做training業務,也提供雲端的inference業務,這類GPU計算能力強,功能較多,但功耗較高,對散熱要求較高。

2,目前,甚至在今後相當長的一段時間內,GPU都是計算性能最強,技術最成熟,方案最完善的產品。FPGA的優點是功耗低,支持定製化,開發週期短,適合小規模部署;缺點是基於FPGA的編程難度比較大,程序的移植性較差,不支持雙精度浮點等;TPU目前無法單獨購買,只能在Google雲上使用;TPU的性能也不如目前的V100;目前的一些AI芯片,比如寒武紀,比特大陸等,他們主要是用來做inference的,不是做training的,計算能力較低,開發編程環境,函數庫等還不完善。

3,不同的GPU對支持的格式不同,V100可以支持所有的格式,P100不支持H.265 (HEVC) 8k,支持的格式可以看NVIDIA官網介紹可以看看這個鏈接介紹https://developer.nvidia.com/video-encode-decode-GPU-support-matrix

4,GPU的利用率和負載情況相關,儘量保證GPU數量和計算量相匹配。另外,V100 GPU支持MPS多進程服務功能,開啓MPS也可以一定程度提高利用率。

問題三
鄭少飛-安徽大學-計算機視覺方向

1,在各個深度學習框架以及各種API逐漸完善的今天,我們更多時候都是在用現成的接口和框架實現我們的所需,低層的封裝等都有專門的團隊在做。我想問一下,在這種情況下做研究,我們有必要去傾注一些精力去熟悉一些硬件架構以及低層的一些封裝算法嗎?
2,目前GPU架構的缺點,將來會怎麼改進?

易成:1,開發深度學習框架的目的就是爲了節省大家程序開發的時間,避免大家去做硬件架構和底層相關的開發,比如我們不必寫CUDA代碼去調用GPU了。因此我們在做一些工程項目的時候,就不用太關注這些底層的東西。如果我們是做科研,或者覺得現有的框架性能不夠好,要開發自己的框架,這些還是需要了解的。

2,目前GPU的性能雖然已經很高了,但還是不夠,現在對計算能力的要求增長的更快,所以今後GPU的性能還會有進一步的提升;還有比如功耗,現在一塊GPU功耗300W,DGX-2的功耗達到10kW,散熱的問題很嚴重,能不能把這個功耗降下去,所以,需要改進的地方還很多。

Ċ
marketing Honghu,
2018年10月31日 上午8:53
Comments