係統粉 > IT資訊 > 業界資訊

英特爾推出神經網絡處理器Nervana:無緩存架構

發布時間:2017-10-18    瀏覽數:

英特爾 CEO Brian Krzanich 剛剛在《華爾街日報》舉辦的 D.Live 大會上發布了自家性能最強、專為深度學習而打造的神經網絡處理器 Nervana 。 其聲稱這顆 ASIC 芯片可用於處理人工智能方麵的工作(比如矩陣乘法和轉換),這是它與 CPU 和 GPU 這樣的通用計算硬件的最大區別。盡管當前英特爾在芯片架構上沒有太深入的動力,但 Nervana 創造者 Naveen Rao 在一篇單獨的博客文章中寫到:

英特爾推出神經網絡處理器Nervana:無緩存架構(1)

其從一開始就能理解所涉及的操作和數據動作,因此該芯片可以不像今日的 CPU 或 GPU 那樣需要一個標準的緩存層次結構。

相反,其內存管理顯然是 100% 在軟件中完成的。Rao 聲稱 ,與主打通用計算的競品相比,這意味著該芯片能夠更好地壓榨芯片性能。

在更早的一篇博客文章中,該公司表示,由於僅包含金酸相關的硬件,Nervana 可以省去與緩存控製和相幹邏輯有關的電路,從而囊括更多的計算資源。

在那時,Nervana 還計劃為該芯片搭配高達 32GB 的四堆棧 HBM 運存,且暗示已通過某種形式實現了神經網絡計算(NNP)。

NNP 的另一潛在創新,在於對某些數據類型的處理。英特爾聲稱 NNP 提供了一種全新的“拐點”(Flexpoint)數字格式。

該公司稱:“Flexpoint 允許通過固定點乘和加法來實現標量計算,也可借助共享指數來實現大動態範圍”。

該特性還使得 NNP 可以在給定核心麵積上封裝進更多的操作部件,同時減少每個部件工作時的能耗。此外,每個 NNP 也可包含專門用於和其它神經網絡處理器通訊的片內互聯芯片。

在過去有關 Nervana Engine ASIC 的描述中,該公司計劃為每顆芯片上具有彈性計算力的內部或互聯連結點引入“六個雙向高帶寬鏈接”—— 要麼增加用於任務的計算資源的數量、要麼增加 NNP 集群的規模大小。

Krzanich 表示,當前英特爾正在製定數代 Nervana NNP 產品。而該公司新聞稿中也提到,未來這些產品有助於在 2020 年將深度學習成績提升百倍的目標。

最後,在一個單獨的 播客 節目中,Rao 表示,隨著產品的成熟,該公司還與 Facebook 在 NNP 上展開了合作,更多細節可留意該他們的後續報道。

上一篇:Intel發布專為機器學習而設計的Intel? Nervana? 下一篇:10月20日啟動LibreOffice 6.0 Alpha BUG懸賞活動

相關資訊

最新熱門應用

電腦問答