眾核多計算模式系統(tǒng)的構(gòu)建
形態(tài)管理模塊:接收任務(wù)管理模塊發(fā)送來的目標(biāo)計算模式,切換到該種計算模式。
資源管理模塊:根據(jù)任務(wù)管理模塊發(fā)送的參數(shù)分配存儲空間,包括眾核控制單元的存儲空間和眾核計算單元的存儲空間,眾核控制單元的存儲空間用于對任務(wù)數(shù)據(jù)進行緩存,然后通過數(shù)據(jù)傳輸?shù)腁PI接口把緩存在眾核控制單元的數(shù)據(jù)傳送到眾核計算單元的存儲空間,在計算時由從眾核計算單元存儲空間加載數(shù)據(jù)進行計算。
2.2 計算模式構(gòu)建與切換
計算模式構(gòu)建是形態(tài)管理模塊根據(jù)接收到的命令動態(tài)構(gòu)建出被指定的目的計算模式的過程。眾核處理系統(tǒng)在初始化時,就已經(jīng)創(chuàng)建了指定數(shù)目的CUDA 流(CUDA流的最大數(shù)目取決于GPU中硬件工作隊列的數(shù)目),并采用空位標(biāo)記法對創(chuàng)建的CUDA流進行管理,通過標(biāo)記位的有效性描述CUDA 流的可用性。當(dāng)目的計算模式為單任務(wù)計算時,只需將首位的CUDA流標(biāo)記設(shè)置為有效,其他全部標(biāo)記為無效,在對計算任務(wù)加載時,將計算任務(wù)放入該CUDA流中進行計算;當(dāng)目的計算模式為多任務(wù)計算時,需要將指定數(shù)目CUDA流的標(biāo)記位設(shè)置為有效,在對計算任務(wù)加載時,通過輪詢的方式將計算任務(wù)放入到相應(yīng)的CUDA 流中,利用CUDA 流的Hyper-Q特性,同時加載多個計算任務(wù)到眾核計算單元;當(dāng)目的計算模式為多任務(wù)流式計算時,需要將指定CUDA 流的標(biāo)記設(shè)置為有效,從構(gòu)建第一個計算步開始,將第一個計算步放入第一個CUDA 流中進行計算,當(dāng)?shù)谝粋€計算步首次完成計算后,利用二元信號量通知眾核控制單元中的任務(wù)管理模塊開始構(gòu)建第二個計算步,并重新構(gòu)建第一個計算步,以此類推,完成對多任務(wù)流式計算中每個計算步的動態(tài)構(gòu)建過程。
計算模式的切換是當(dāng)眾核計算單元的當(dāng)前計算模式與計算任務(wù)執(zhí)行需要的計算模式(即目的計算模式)不匹配時,需要對眾核計算單元的計算模式進行切換,以適應(yīng)計算模式變化的需求。
在從任務(wù)配置文件中獲取適應(yīng)于計算任務(wù)執(zhí)行的目的計算模式后,首先與當(dāng)前計算模式進行比較,若匹配成功則不需要進行計算模式的切換;若匹配失敗則進一步判斷眾核在當(dāng)前計算模式下是否空閑,如處于忙碌狀態(tài)則需要等待,對于不同優(yōu)先級的任務(wù)設(shè)有不同的等待時限,以保證對計算任務(wù)的及時響應(yīng),當(dāng)大于這一時限時強制結(jié)束正在運行的任務(wù)以釋放計算資源,從而構(gòu)建新的計算模式,完成計算模的切換過程,流程圖如圖4 所示。
![眾核多計算模式系統(tǒng)的構(gòu)建](http://editerupload.eepw.com.cn/fetch/20140213/226779_2_0.jpg)
2.3 共享內(nèi)存緩沖技術(shù)
眾核計算單元在對主控機請求的計算任務(wù)加載前,必須獲取來自主控機的任務(wù)數(shù)據(jù),為了實現(xiàn)對任務(wù)數(shù)據(jù)的接收和發(fā)送,需要建立相應(yīng)的數(shù)據(jù)緩沖區(qū)。傳統(tǒng)的方法是采用消息隊列和基于共享內(nèi)存信號燈的方式來建立和管理數(shù)據(jù)緩沖區(qū),但當(dāng)數(shù)據(jù)的寫入和讀取速度差別較大時,容易造成數(shù)據(jù)緩沖區(qū)的阻塞。因此采用一種可滑動動態(tài)共享內(nèi)存緩沖技術(shù),如圖5所示。
在眾核控制單元的存儲空間中申請存儲空間作為存放數(shù)據(jù)的緩沖池,按需要建立指定數(shù)量的單向指針鏈表,每個指針鏈表代表一個數(shù)據(jù)緩沖區(qū),在眾核處理系統(tǒng)的計算模式切換時,可根據(jù)并行任務(wù)數(shù)目的變化修改指針鏈表的節(jié)點數(shù),使每個數(shù)據(jù)緩沖區(qū)占用的存儲空間按需滑動,以提高整個數(shù)據(jù)緩池數(shù)據(jù)的傳遞效率。
2.4 計算庫動態(tài)加載
在對計算任務(wù)的執(zhí)行函數(shù)進行加載時,采用動態(tài)共享庫的方式,因為動態(tài)鏈接的共享庫具有動態(tài)加載、封裝實現(xiàn)、節(jié)省內(nèi)存等優(yōu)點,可以把眾核計算單元的執(zhí)行函數(shù)與邏輯控制程序相隔離,降低了眾核計算與邏輯控制的耦合度,增加了可擴展性和靈活性。
在動態(tài)加載計算庫前,需要將執(zhí)行函數(shù)編譯生成動態(tài)共享庫,進而在程序中進行顯示調(diào)用。當(dāng)調(diào)用時使用動態(tài)加載API,該過程首先調(diào)用dlopen以打開指定名字的動態(tài)共享庫,并獲得共享對象的句柄;而后通過調(diào)用dlsym,根據(jù)動態(tài)共享庫操作句柄與符號獲取該符號對應(yīng)的函數(shù)的執(zhí)行代碼地址;在取得執(zhí)行代碼地址后,就可以根據(jù)共享庫提供的接口調(diào)用與計算任務(wù)對應(yīng)的執(zhí)行函數(shù),將執(zhí)行函數(shù)發(fā)射到眾核計算單元,由眾核計算單元根據(jù)執(zhí)行函數(shù)的配置參數(shù)組織計算資源進行計算;當(dāng)不會再調(diào)用共享對象時調(diào)用dlclose關(guān)閉指定句柄的動態(tài)共享庫。
3 結(jié)語
針對復(fù)雜應(yīng)用領(lǐng)域計算任務(wù)對多種計算模式的需求,本文研究了眾核處理機結(jié)構(gòu),根據(jù)NVIDIA KeplerGK110架構(gòu)中Hyper-Q 與CUDA 流的特性,構(gòu)建了可單任務(wù)并行計算、多任務(wù)并行計算、多任務(wù)流式計算間動態(tài)切換的眾核多計算模式系統(tǒng),能夠提高實時計算平臺的靈活性,以適應(yīng)不同的任務(wù)計算需求。下一步的研究方向是挖掘GPU中硬件工作鏈路與SM(Streaming Mul-tiprocessor)間的映射機制。
評論