您的位置: 首頁 >科技 >

Hot Chips活動詳細介紹了AI強度處理器

2019-08-26 17:06:55 編輯: 來源:
導讀 本周,技術觀察人員在英特爾獲得了令人印象深刻的AI加速器工作,即Hot Chips 2019活動的啟示,其中英特爾展示了其Nervana神經(jīng)網(wǎng)絡處理器

本周,技術觀察人員在英特爾獲得了令人印象深刻的AI加速器工作,即Hot Chips 2019活動的啟示,其中英特爾展示了其Nervana神經(jīng)網(wǎng)絡處理器的細節(jié),(1)用于培訓的NNP-T和(2)NNP-I推斷。

讓我們首先重新審視推斷(Spring Hill)的工作,以及NNP-1,它是在以色列海法的工廠開發(fā)的。NNP-1代表用于推理的神經(jīng)網(wǎng)絡處理器。

路透社的Steven Scheer說,它的構造將允許它“ 使用最少的能量來應對高工作負荷 ”。

TNW的 Ravie Lakshmananin描述了它的功能,稱其“專門針對人工智能的推理方面推斷出新的見解。通過使用專用的AI推理計算引擎,NNP-I以更低的功率提供更高的性能。”

Nervana這個名字來自哪里?Nervana Systems是它在2016年收購的公司。當時,分析師Karl Freund告訴EE Times,英特爾這樣做很有意義。收購Nervana是進入深度學習市場的一種方式。

本周,為什么這個問題變成了原因 - 不是英特爾發(fā)言人。

“為了實現(xiàn)'AI無處不在'的未來情況,我們必須處理大量的數(shù)據(jù)生成,并確保組織具備了有效利用數(shù)據(jù)所需的資源,并在收集數(shù)據(jù)時對其進行處理,” 在路透社的一份報告中,Nervana的創(chuàng)始人,現(xiàn)任英特爾人工智能產(chǎn)品集團總經(jīng)理Naveen Rao 說。“這些計算機需要加速復雜的AI應用程序。”

包括SiliconANGLE在內的技術觀察人士表示,NNP-1適用于運行AI工作負載的大型數(shù)據(jù)中心。Fossbytes表示,一套全面的RAS功能可確保它可以輕松部署到現(xiàn)有數(shù)據(jù)中心。

喬爾Hruska的在ExtremeTech來:“英特爾聲稱NNP,我可以提供的每3600個推論ResNet50性能第二在10W TDP運行時工程以4.8 TOPS /瓦,符合英特爾的整體效率目標(該公司聲稱,NNP-。我在低瓦數(shù)時效率最高。)“

2019年Hot Chips會議的另一個感興趣的項目是NNP-T,它代表英特爾Nervana神經(jīng)網(wǎng)絡訓練處理器。英特爾將NNP-T(代號為Spring Crest)描述為專用(1),以大規(guī)模訓練復雜的深度學習模型,(2)通過開箱即用的橫向擴展支持簡化分布式培訓。

湯姆硬件公司的 Paul Alcorn 寫道,“NNP-T的設計是如何從機箱到機箱無縫擴展,甚至機架到機架,無需交換機。” 他說,網(wǎng)絡是專為高帶寬和低延遲而設計的; 反過來,該架構將處理“大規(guī)模模型,可擴展到5或80億個或更多參數(shù)。”

Naveen Rao評論道:“英特爾Nervana NNP-T推動了深度學習培訓的界限。它旨在優(yōu)先考慮兩個關鍵的現(xiàn)實考慮:如何盡快培訓網(wǎng)絡以及如何在給定的功率預算內完成。” 該體系結構是從頭開始構建的,沒有遺留的工作負載可供支持。

從更大的角度來看,“以色列時報”稱“英特爾,Nvidia,高通,谷歌等公司以及全球各地的創(chuàng)業(yè)公司都在尋找這一領域的新技術,其中包括創(chuàng)造硬件以實現(xiàn)巨大的處理能力。信息量。“

Shoshanna Solomon寫道:處理硬件有兩個目的:(1)訓練計算機完成新任務;(2)教他們推斷并從而獲得見解。

總而言之,英特爾正在努力使數(shù)據(jù)科學家能夠在處理非結構化和復雜數(shù)據(jù)時做到這兩點。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。