技術(shù)關(guān)注:AMD揭露HSA運(yùn)算架構(gòu)細(xì)節(jié)
IThome 發(fā)表于:13年05月14日 10:10 [轉(zhuǎn)載] DOIT.com.cn
芯片制造商AMD發(fā)表HSA運(yùn)算架構(gòu)的新技術(shù):hUMA,來解決CPU與GPU間的重覆資料拷貝問題。
2012年,AMD就攜手ARM、高通、三星、聯(lián)發(fā)科等廠商成立HSA(Heterogeneous Systems Architecture)基金會,希望拓展CPU和GPU協(xié)同運(yùn)算的新架構(gòu),并輔助此架構(gòu)發(fā)展的異質(zhì)運(yùn)算新軟體開發(fā)環(huán)境。
日前,AMD進(jìn)一步公開說明此運(yùn)算架構(gòu)的新技術(shù):hUMA(heterogeneous Uniform Memory Access)。透過hUMA,CPU和GPU能共享同一個存儲空間,并且CPU能夠直接存取GPU的存儲位址,不必像過去得花工夫再將GPU的運(yùn)算資料復(fù)寫到CPU上。
過去CPU和GPU的存儲池仍獨(dú)立運(yùn)作
換句話說,以過去技術(shù)發(fā)展的狀態(tài),即便GPU和CPU已整合到同一個芯片上(GPGPU技術(shù)),芯片在運(yùn)算時要定位存儲的位置仍然得經(jīng)過繁雜的步驟,這是因?yàn)镃PU和GPU的存儲池仍然是獨(dú)立運(yùn)作。
先前為了解決兩者存儲池獨(dú)立的運(yùn)算問題,當(dāng)CPU程式需要在GPU上進(jìn)行部分運(yùn)算時,CPU都必須從CPU的存儲上復(fù)制所有的資料到GPU的存儲上,而當(dāng)GPU上的運(yùn)算完成時,這些資料還得再復(fù)制回到CPU存儲上。這些步驟都會不斷耗費(fèi)時間以及程式處理的效能。
此外,復(fù)制資料的步驟也代表著,當(dāng)CPU正在運(yùn)作時,GPU就無法同時運(yùn)算相同的資料。而當(dāng)不同程式語言間的關(guān)鍵術(shù)語(exact terminology)變化時,CPU資料架構(gòu)會啟動指標(biāo)器(pointers)來指示相關(guān)的資料,但是,因?yàn)镃PU的指標(biāo)器是指示到CPU存儲上的位置,而GPU的存儲又是另一個獨(dú)立架構(gòu),因此這樣的架構(gòu)若復(fù)制到GPU上運(yùn)作,反而會產(chǎn)生位置錯置的問題。
而hUMA技術(shù),就是來解決兩者存儲獨(dú)立的問題。
hUMA能讓GPU直接存取CPU的存儲位置
hUMA像個連貫快取的系統(tǒng),讓CPU和GPU能共享同一個存儲空間,讓CPU和GPU在存儲上看到的資料都能維持一致,如果其中一方上的資料改變,即便舊資料經(jīng)過快取,另一方還是能看到經(jīng)改變的資料。換句話說,hUMA能讓GPU直接存取CPU的存儲位置,當(dāng)CPU在讀寫資料時,GPU也能同時讀寫資料。
此外,hUMA也能用在CPU的需要配置虛擬存儲(demand-paged virtual memory)上。當(dāng)GPU要存取寫在磁碟上的位置時,CPU就能讓作業(yè)系統(tǒng)去尋找,并加載相關(guān)的資料進(jìn)存儲中。
第一款支援hUMA的產(chǎn)品將會是AMD的Kaveri APU,預(yù)計(jì)今年下半年上市。根據(jù)AMD表示,hUMA將會支援C++和Java等開發(fā)語言。
公司簡介 | 媒體優(yōu)勢 | 廣告服務(wù) | 客戶寄語 | DOIT歷程 | 誠聘英才 | 聯(lián)系我們 | 會員注冊 | 訂閱中心
Copyright © 2013 DOIT Media, All rights Reserved. 北京楚科信息技術(shù)有限公司 版權(quán)所有.