日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

本文經自動駕駛之心公眾號授權轉載,轉載請聯系出處。

一. TensorRT是什么?

2016年Nvidia為自家GPU加速推理而提供的SDK,人們有時也把它叫做推理框架。

二. 為什么?

只有Nvidia最清楚自家GPU或DLA該如何優化,所以TensorRT跑網絡的速度是最快的,比直接用Pytorch快N倍。

TensorRT是如何做到架構更快的?

遙遙領先的TensorRT

三. 怎么做到的?

1. 搜索整個優化空間

與Pytorch等其它訓練框架最大區別是,TensorRT的網絡優化算法是基于目標GPU所做的推理性能優化,而其它框架一方面需要綜合考慮訓練和推理,更重要的是它們沒有在目標GPU上做針對性的優化。

TensorRT又是如何針對目標GPU優化的呢?

簡單講就是在可能的設計空間中搜索出全局最優解

這個搜索空間有哪些變量呢?

比如CUDA架構中的編程模型所對應的,將Tensor劃分為多少個block?以及這些block如何組織到Grid中。

TensorRT是如何做到架構更快的?

任務被劃分為多個Block

TensorRT是如何做到架構更快的?

Block以Grid的方式組織起來

TensorRT是如何做到架構更快的?

不同的組織層次以對應不同的存儲體系結構中的不同存儲器

再舉例,使用什么樣的指令完成計算,可能是FFMA、FMMA,可能是TensorCore指令...

更難的部分可能是Tensor數據流的調度,把他們放在local、share還是global memory呢?如何擺放呢?

這些變量組合在一起是一個巨大的搜索空間,可能你的CPU計算幾天也得不出個結果來。

但是,我們知道神經網絡的計算是由一個個粒度更大的算子組成的,算子上面還有粒度更大的層結構。我們也清楚地知道層與層之間相對獨立,也就是說可以針對每層計算優化,最后把優化后的層串在一起大概率就是網絡的全局最優解。

于是,TensorRT預先寫了很多算子和層(CUDA Kernel)。當然這些算子的輸入和輸出tensor是可以配置的,以適應網絡輸入和輸出的不同以及GPU資源的不同。

TensorRT是如何做到架構更快的?

部分優化好的算子

搜索空間變小了,從原來的指令級別的搜索,上升到了算子級別的搜索。因為這些實現都是用CUDA kernel所寫,更準確的說是Kernel級別的搜索了。

但是Tensor數據流的調度問題并沒有解決,這也是最關鍵和復雜的地方。我們應該將輸入Tensor劃分為多少個Block呢?這些Blocks應該分配給多少個線程呢?Tensor存儲在哪呢?local/share/global memory的哪些地方呢?中間計算結果存儲在哪里呢?

對于計算部分是可以通過模擬的方式(類似指令集仿真器)計算得到性能的,但是Tensor數據流在share/L2/Global Memory的流動過程就很難通過仿真計算得到精確結果,因為要被模擬的數據量和線程數過大,何況要嘗試的可能性還很多,靠CPU仿真計算的思路就別想了。唯一辦法就是讓候選算子在目標GPU上直接跑跑,統計出性能,最后通過比對選出最優解。TensorRT把這個過程叫做Timing,TensorRT甚至可以將優化的中間過程存儲下來供你分析,叫做timing caching(通過trtexec --timingCacheFile=<file>)。

TensorRT是如何做到架構更快的?

Nvida GPU memory架構

以上所描述的優化過程可以叫做Hardware Aware Optimazation。

總結起來優化器會重點分析:

  • Type of hardware(Hardware capability...)
  • Memory footprint(Share, Cache, Global...)
  • Input and output shape
  • Weight shapes
  • Weight sparsity
  • Level of quantization (so, reconsider memory)

而這些是Pytorch等框架不會去深入挖掘的,尤其是對存儲系統的優化。

2. 強制選擇Kernel

由于Block之間線程的運行順序是隨機的,CPU可能在向GDDR/HBM讀寫數據,甚至GPU的時鐘頻率也在隨負載的變化而變化,這導致了不同系統運行環境下GPU的性能表現會有差異。這種差異也可能導致TensorRT Timing的最優解不是實際推理時的最優解,可能選擇了次優的Kernel。

TensorRT提供了一個補救方法,就是強制指定選擇某個Kernel實現,如果你很確信它是最優解的話。

TensorRT提供的API叫做AlgorithmSelector。

3. Plugin

當然,你對自己設計的算子更有把握,可以自己寫Kernel,然后指定使用它。

不過,更多情況下,是因為發現TensorRT不支持某個算子,你才被迫去寫Kernel,畢竟CUDA編程不簡單,何況性能還需要足夠好。

4. cuBLAS和cuDNN

TensorRT安裝指導要求你先安裝CUDA SDK和cuDNN。

CUDA SDK需要安裝是顯而易見的,因為TensorRT所調用的Kernel需要NVCC編譯器來編譯成Nvidia GPU的匯編指令序列啊!

但是CUDA SDK中還有一個cuBLAS庫也是被TensorRT所依賴的,我們知道C++庫BLAS(Basic Linear Algebra Subprograms),它是針對CPU進行的線性代數計算優化,那么cuBLAS就是針對CUDA GPU開發的線性代數計算庫,它的底層當然也就是用CUDA Kernel寫成的。典型的矩陣乘法算子就可以直接調用cuBLAS了。

cuBLAS開發的很早,應該是CUDA生態最早的一批庫了吧,但是隨著深度學習的普及,Nvidia又在生態中加入了cuDNN庫,它的層次更高,封裝了到了網絡層,所以其實TensorRT也可以直接調用優化好的cuDNN庫中的Kernel?是也不是。

TensorRT可以選擇所謂Tactic(策略)來決定是使用TensorRT寫的Kernel還是cuBLAS和cuDNN的。

5. Tactic

TensorRT的Tactic能決定很多優化選項。

例如,每次timing某個算子時需要平均的運行次數。缺省TensorRT會運行四次,以降低不確定性帶來的誤差,但這個次數是可以修改的。

還可以決定上面提到的Kernel庫的選擇,Plugin的選擇,GPU時鐘頻率鎖定等。

6. 量化

TensorRT當然具備網絡量化能力,提供了將全網都量化到int8的隱性量化方式,也提供了插入Q/DQ Layer的顯性量化方式。

混合量化是Nvidia做的很優秀的地方,這對于高效利用計算資源起到了重要作用,不過,這個另外的話題,以后有機會再談。

7. 多應用推理和多卡推理

其實這才是Nvidia強悍的地方,在友商都在談單卡性能時,其實多卡或多節點才是Nvidia的殺手锏

另外,對于單卡性能富余的情況下,可能希望有多個流并行推理,這個對于TensorRT來說也是必須支持的

四. TensorRT的內核到底是什么?

答:根據網絡、輸入、輸出tensor、目標GPU的資源,通過實際運行,在候選Kernel庫中擇優的一個Hardware Aware優化器。

五. 編譯器

最后,如果非要套用編譯器前后端理論的話,上述談到的部分應該屬于編譯器后端部分了,因為它已經和底層硬件息息相關了。只不過它邏輯上處于于NVCC這個實體編譯器的上層。而編譯器前端,也就是與硬件不相關的圖融合部分是也是在TensorRT的Builder內完成的。

好了,如果你對AI編譯器還不了解,可以看下面這篇入門文章

https://zhuanlan.zhihu.com/p/632648673

最后送上兩幅圖,作為總結

TensorRT是如何做到架構更快的?

TensorRT工具鏈

TensorRT是如何做到架構更快的?

TensorRT后端優化流程

分享到:
標簽:架構
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定