英特爾 CEO Brian Krzanich 剛剛在《華爾街日報》舉辦的 D.Live 大會上發布了自家性能最強、專為深度學習而打造的神經網絡處理器 Nervana 。 其聲稱這顆 ASIC 芯片可用於處理人工智能方麵的工作(比如矩陣乘法和轉換),這是它與 CPU 和 GPU 這樣的通用計算硬件的最大區別。盡管當前英特爾在芯片架構上沒有太深入的動力,但 Nervana 創造者 Naveen Rao 在一篇單獨的博客文章中寫到:
其從一開始就能理解所涉及的操作和數據動作,因此該芯片可以不像今日的 CPU 或 GPU 那樣需要一個標準的緩存層次結構。
相反,其內存管理顯然是 100% 在軟件中完成的。Rao 聲稱 ,與主打通用計算的競品相比,這意味著該芯片能夠更好地壓榨芯片性能。
在更早的一篇博客文章中,該公司表示,由於僅包含金酸相關的硬件,Nervana 可以省去與緩存控製和相幹邏輯有關的電路,從而囊括更多的計算資源。
在那時,Nervana 還計劃為該芯片搭配高達 32GB 的四堆棧 HBM 運存,且暗示已通過某種形式實現了神經網絡計算(NNP)。
NNP 的另一潛在創新,在於對某些數據類型的處理。英特爾聲稱 NNP 提供了一種全新的“拐點”(Flexpoint)數字格式。
該公司稱:“Flexpoint 允許通過固定點乘和加法來實現標量計算,也可借助共享指數來實現大動態範圍”。
該特性還使得 NNP 可以在給定核心麵積上封裝進更多的操作部件,同時減少每個部件工作時的能耗。此外,每個 NNP 也可包含專門用於和其它神經網絡處理器通訊的片內互聯芯片。
在過去有關 Nervana Engine ASIC 的描述中,該公司計劃為每顆芯片上具有彈性計算力的內部或互聯連結點引入“六個雙向高帶寬鏈接”—— 要麼增加用於任務的計算資源的數量、要麼增加 NNP 集群的規模大小。
Krzanich 表示,當前英特爾正在製定數代 Nervana NNP 產品。而該公司新聞稿中也提到,未來這些產品有助於在 2020 年將深度學習成績提升百倍的目標。
最後,在一個單獨的 播客 節目中,Rao 表示,隨著產品的成熟,該公司還與 Facebook 在 NNP 上展開了合作,更多細節可留意該他們的後續報道。
相關資訊
最新熱門應用
hotbit交易平台app安卓版
其它軟件223.89MB
下載bilaxy交易所app
其它軟件223.89MB
下載avive交易所官網最新版
其它軟件292.97MB
下載必安交易所app官網版安卓
其它軟件179MB
下載富比特交易所app安卓版
其它軟件34.95 MB
下載美卡幣交易所安卓版
其它軟件16.3MB
下載幣幣交易所app官網
其它軟件45.35MB
下載熱幣交易所最新版本app
其它軟件287.27 MB
下載zbg交易所官方ios
其它軟件96.60MB
下載拉菲交易所安卓版
其它軟件223.89MB
下載