2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)
當(dāng)英偉達(dá)(NVIDIA)宣布在實(shí)現(xiàn)實(shí)時(shí)人工智能對(duì)話的語言理解方面取得突破時(shí),我們措手不及。我們還在努力消化ACL的過程,這是全世界計(jì)算語言學(xué)最大的研究事件之一,F(xiàn)acebook、Salesforce、微軟和亞馬遜都參與了其中。雖然這代表了兩種不同的成就,但它們?nèi)匀痪o密相連。以下是英偉達(dá)的突破,以及它對(duì)整個(gè)世界的意義。
正如ZDNet昨天報(bào)道的,英偉達(dá)表示,其人工智能平臺(tái)目前擁有迄今為止最快的訓(xùn)練記錄、最快的推理和最大的訓(xùn)練模型。NVIDIA已經(jīng)成功地在53分鐘內(nèi)訓(xùn)練了一個(gè)大型的BERT模型,并且讓其他的BERT模型在2.2毫秒內(nèi)產(chǎn)生結(jié)果。但我們需要把它放在背景中來理解它的重要性。BERT(來自《變形金剛》的雙向編碼器表示)是研究人員于2018年底在谷歌AI語言上發(fā)表的研究論文(論文、開放源代碼和數(shù)據(jù)集)。伯特最近在自然語言處理領(lǐng)域取得了一系列突破,并在人工智能領(lǐng)域引起了轟動(dòng),因?yàn)樗诟鞣N各樣的自然語言處理任務(wù)中展示了最先進(jìn)的成果。
NVIDIA所做的是使用谷歌發(fā)布的數(shù)據(jù)集(兩種風(fēng)格,BERT- large和BERT- base)和它自己的gpu,以減少訓(xùn)練BERT機(jī)器學(xué)習(xí)模型所需的時(shí)間,然后將其用于應(yīng)用程序。這就是機(jī)器學(xué)習(xí)的工作原理——首先是一個(gè)訓(xùn)練階段,在這個(gè)階段中,模型通過顯示大量數(shù)據(jù)來學(xué)習(xí),然后是一個(gè)推理階段,在這個(gè)階段中,模型處理新的數(shù)據(jù)。
NVIDIA使用了不同的配置,產(chǎn)生了不同的結(jié)果。NVIDIA DGX SuperPOD使用92臺(tái)運(yùn)行1472臺(tái)NVIDIA V100 gpu的DGX- 2h系統(tǒng)來訓(xùn)練BERT模型,而同樣的任務(wù)需要一個(gè)NVIDIA DGX-2系統(tǒng)2.8天。2.2毫秒的推理結(jié)果在不同的系統(tǒng)/數(shù)據(jù)集上(運(yùn)行NVIDIA TensorRT / BERT-Base的NVIDIA T4 gpu)。
最重要的是,英偉達(dá)將BERT訓(xùn)練提高了好幾天,而以前這是常規(guī)訓(xùn)練。但這里的神奇之處在于硬件和軟件的結(jié)合,這就是為什么whyNVIDIA要發(fā)布自己對(duì)BERT的調(diào)整,這可能是整個(gè)社區(qū)最大的勝利。
數(shù)據(jù)、人工智能、物聯(lián)網(wǎng):零售業(yè)的未來
零售購物的數(shù)字化轉(zhuǎn)型將電子商務(wù)的許多好處帶入實(shí)體店,其結(jié)果也同樣具有顛覆性。
閱讀更多
我們?cè)儐柫擞ミ_(dá)如何以及為什么選擇解決這個(gè)問題。英偉達(dá)發(fā)言人表示,他們認(rèn)為人工智能對(duì)話是人類與智能機(jī)器和應(yīng)用程序互動(dòng)的基本組成部分。然而,這是一個(gè)非常具有挑戰(zhàn)性的問題,無論是在計(jì)算上還是在算法上;他們補(bǔ)充說,這是他們非常感興趣的地方。這是一個(gè)跨公司的努力,許多不同的團(tuán)隊(duì)為實(shí)現(xiàn)這些突破做出了貢獻(xiàn)。這些團(tuán)隊(duì)包括英偉達(dá)人工智能研究、數(shù)據(jù)中心規(guī)?;A(chǔ)設(shè)施、人工智能軟件和工程。英偉達(dá)表示,這表明它可以將其人工智能平臺(tái)的市場(chǎng)領(lǐng)先性能擴(kuò)展到新興用例。這有兩個(gè)方面。它是技術(shù)上的奇跡,它的實(shí)際適用性。讓我們打開。
就BERT的培訓(xùn)而言,NVIDIA闡明了軟件優(yōu)化包括在PyTorch中實(shí)現(xiàn)的自動(dòng)混合精度和在一篇論文中闡述的蘭姆大批量優(yōu)化技術(shù)的使用。關(guān)于更多細(xì)節(jié),有一篇關(guān)于此的博客文章,人們也可以訪問NVIDIA的BERT github存儲(chǔ)庫中的代碼。為了實(shí)現(xiàn)NVIDIA T4推理優(yōu)化GPU上的BERT推理的2.2毫秒延遲,NVIDIA開發(fā)了針對(duì)TensorRT、NVIDIA推理編譯器和運(yùn)行時(shí)的若干優(yōu)化。工作的重點(diǎn)是Transformer層的有效實(shí)現(xiàn)和融合,它是BERT (BERT-base有12個(gè)Transformer層)和當(dāng)今可用的最先進(jìn)的NLU模型的核心構(gòu)件。TensorRT包含幾個(gè)關(guān)鍵功能,可以實(shí)現(xiàn)非常高的推理吞吐量,從融合內(nèi)核到自動(dòng)選擇精度等等。NVIDIA進(jìn)一步增加了新的優(yōu)化來加速NLU模型,并計(jì)劃繼續(xù)改進(jìn)庫來支持人工智能工作負(fù)載。
NVIDIA比以前更快地處理BERT自然語言
簡而言之,所有這一切意味著,你現(xiàn)在可以訓(xùn)練出比以往更好、更快的語言模型,并將它們部署到會(huì)話人工智能應(yīng)用程序中,并以比以往更快的速度運(yùn)行。當(dāng)然,這很好。從理論上講,英偉達(dá)的做法可能會(huì)讓所有人受益。BERT的優(yōu)化以開源的形式發(fā)布,NVIDIA硬件可供所有人使用。但是,通常的警告是適用的。盡管能夠在很短的時(shí)間內(nèi)訓(xùn)練出像BERT這樣的語言模型,與之前的技術(shù)相比,這是很好的,但這還不夠。
即使假設(shè)NVIDIA發(fā)布的是可用的,有多少組織能夠真正做到這一點(diǎn)?
首先,從他們的存儲(chǔ)庫中獲得這些開源模型,讓它們運(yùn)行,提供正確的數(shù)據(jù),然后將它們集成到會(huì)話AI應(yīng)用程序中,這不是很多人能做的事情。是的,企業(yè)中缺乏數(shù)據(jù)科學(xué)技能已經(jīng)被多次提及。但是記住這一點(diǎn)很有用——對(duì)于一般的組織來說,這并不容易。
然后,從他們的Github盒子里拿出來,NVIDIA的BERT模型處理特定的數(shù)據(jù)集。這意味著,如果你嚴(yán)格按照規(guī)定的流程操作,而你的競爭對(duì)手也這么做,你最終將擁有一個(gè)以同樣方式響應(yīng)的人工智能會(huì)話應(yīng)用程序。
將大數(shù)據(jù)轉(zhuǎn)化為商業(yè)見解
企業(yè)擅長收集數(shù)據(jù),而物聯(lián)網(wǎng)正將其帶入一個(gè)新的階段。但是,最先進(jìn)的組織正在使用它來推動(dòng)數(shù)字轉(zhuǎn)換。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)