2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
英特爾(Intel Corp.)今天推出了三款用于訓(xùn)練和部署人工智能模型的芯片,這將使英特爾得以加強與英偉達(Nvidia Corp.)的競爭。英偉達的圖形處理部門主導(dǎo)著市場。
今天上午,英特爾在舊金山舉行的新聞發(fā)布會上發(fā)布了這款芯片,它源于英特爾2016年收購的兩家機器學(xué)習(xí)公司——Nervana Systems和Movidius ltd .。
Nervana創(chuàng)始人、現(xiàn)任英特爾人工智能產(chǎn)品集團副總裁兼總經(jīng)理的納文?拉奧(Naveen Rao,上圖為其中一款新Nervana芯片)表示,處理器帶來的能力至關(guān)重要,因為在計算硬件和軟件方面,“我們已經(jīng)達到了極限”。這一現(xiàn)實最近也推動了新一代面向人工智能的芯片初創(chuàng)公司的發(fā)展,其中包括今天剛剛成立的Blaize Inc.。
最直接針對GPU制造商的產(chǎn)品是Nervana NNP-T1000神經(jīng)網(wǎng)絡(luò)處理器。這是一個集成電路優(yōu)化的硬件密集型任務(wù),訓(xùn)練人工智能模型與樣本數(shù)據(jù)。這一過程對于確保模型產(chǎn)生準確的結(jié)果是必要的,如今在絕大多數(shù)人工智能項目中都使用了英偉達芯片。
英特爾在8月份的一次預(yù)覽中說,nnp - t1000可以管理高達每秒119萬億次的操作。該公司不會自行推出處理器,而是將其作為加速器卡的一部分,企業(yè)可以將其插入服務(wù)器。這些卡的設(shè)計使得大量卡可以相對容易地連接在一起,英特爾表示,這使得它們甚至可以支持超級計算機規(guī)模的人工智能訓(xùn)練工作。
Nervana NNP-T1000(圖片:Intel)
因特爾公司已經(jīng)打破常規(guī),推出了np - t1000。該公司選擇委托toTSMCLtd,而不是在自己的工廠處理生產(chǎn)。該公司是一家外部半導(dǎo)體制造商。由270億個晶體管組成的NNP-T1000采用了這家臺灣公司的16納米制造工藝,并被組織成24個處理器核心。
該公司的第二款人工智能芯片是NervanaNNP-I1000。它也作為一個加速卡提供,它不是為訓(xùn)練而優(yōu)化,而是為推斷而優(yōu)化,即一旦開發(fā)結(jié)束并部署到生產(chǎn)環(huán)境中,模型對實時數(shù)據(jù)執(zhí)行的計算。
NNP-I1000基于英特爾最新的10納米芯片架構(gòu)。該公司本質(zhì)上采用了一個10納米的中央處理器,將其簡化為兩個處理核心,并添加了12個“干擾引擎”,用于運行人工智能軟件。
英特爾表示,這種芯片每秒最多可以進行3600次推斷。這個性能記錄在resnest50中,這是一種常用來評估處理器性能的AI模型。該基準測試的結(jié)果被分解為每瓦4.8萬億次運算,英特爾聲稱這使得NNP-I1000成為同類芯片中最節(jié)能的芯片。
據(jù)英特爾說,F(xiàn)acebook Inc.和百度Inc.等公司已經(jīng)在躍躍欲試部署這兩種Nervana芯片。Facebook人工智能主管米沙·斯梅揚斯基(Misha yanskiy)表示,這些芯片是加快這家社交網(wǎng)絡(luò)巨頭的人工智能工作的關(guān)鍵,比如每天處理60億份翻譯。
在今天的硬件發(fā)布中,英特爾最新版本的Movidius巨量視覺處理單元代碼為Keem Bay。這種芯片被設(shè)計用于在低功耗設(shè)備(如依靠機器學(xué)習(xí)繞過障礙物的無人機)內(nèi)為人工智能圖像和視頻處理系統(tǒng)提供動力。
英特爾表示,最新的Movidius VPU芯片的推理性能是上一代芯片的10倍以上。與此同時,它比競爭對手(如Nvidia的TX2芯片)的產(chǎn)品節(jié)能6倍。
圖片:英特爾
Rao說:“像Intel Nervana NNPs和Movidius Myriad VPUs這樣的專用硬件對于繼續(xù)人工智能的驚人進步是必要的。”“人工智能沒有單一的方法。”
實際上,英特爾物聯(lián)網(wǎng)集團副總裁喬納森?巴隆(jonathan Ballon)在對英偉達(Nvidia) gpu的挖苦中強調(diào),為人工智能和機器學(xué)習(xí)“特制”芯片的重要性。gpu最初是用來加速計算機圖形的,現(xiàn)在仍然如此。
此外,Rao還強調(diào)了使用芯片功能的相關(guān)軟件的重要性。例如,英偉達(Nvidia)的CUDA軟件平臺和一套用于并行計算和神經(jīng)網(wǎng)絡(luò)的應(yīng)用程序編程接口,一直是其人工智能崛起的關(guān)鍵。特別值得一提的是,英特爾發(fā)布了針對Edge的Dev Cloud,它允許開發(fā)者在購買之前在英特爾的硬件上測試算法。
綜上所述,拉奧今天上午花了很多時間來談?wù)撚⑻貭柕膫鹘y(tǒng)處理器,稱它們是大多數(shù)人工智能工作的基礎(chǔ),并將繼續(xù)如此。他說,今年的大部分人工智能業(yè)務(wù)已經(jīng)達到35億美元,高于2017年的10億美元。
“一切都從中央處理器開始,”他說?!癤eon是人工智能的骨干,也是數(shù)據(jù)中心的骨干。”
穆爾黑德(Patrick Moorhead)指出,隨著許多工作負載轉(zhuǎn)移到機器學(xué)習(xí)上,英特爾在培訓(xùn)和推理方面投入了大量資金策略。他說:“很高興看到這些部件最終投入市場,我很期待看到它們?nèi)绾卧谏a(chǎn)負載中運行,以及工具鏈在工作量方面如何與現(xiàn)有的工具相比。”
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)