2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
在2月25日美國的Facebook德牧公司m1ta推出了全新的,有人工智能支持的大型語言模型LLaMA-13B,根據(jù)看公司的介紹LLaMA-13B比目前的oled的模型小了將近10倍,但是在性能上要遠(yuǎn)遠(yuǎn)超過LLaMA-13B,根據(jù)meta公司的介紹只是說開發(fā)的LLaMA-13B是公司的新模型,被稱之為大型語言模型,及模型的集合參數(shù)已經(jīng)從之前的70億增長(zhǎng)到了650億個(gè),在這一數(shù)據(jù)相比下opn AI的GPT-3模型,就有1751個(gè)參數(shù),將使得該應(yīng)用可以在智能手機(jī)設(shè)備上進(jìn)行本地運(yùn)營,成為一種新的語言助手。
LLaMA-13B發(fā)展態(tài)勢(shì)良好:
Mita公司將會(huì)用最新的采集數(shù)據(jù)訓(xùn)練LLaMA-13B模型,在今后公司將會(huì)使該模型以及權(quán)重的訓(xùn)練數(shù)據(jù)開源,這對(duì)于整個(gè)AI智能行業(yè)來說是一個(gè)巨大的改變,從目前公布的資料來看,所有參加AI競(jìng)賽的大型科技公司,對(duì)于目前自身的AI技術(shù)都處于高度保密階段,LLaMA目前只能采用公開可用的數(shù)據(jù)來進(jìn)行訓(xùn)練,對(duì)于模型可被開源并被重復(fù)使用,這將對(duì)于AI模型的依賴的條件進(jìn)一步增加。
M 1ta公司將會(huì)用LLaMA作為基礎(chǔ)模型,進(jìn)行新的AI模型開發(fā),同時(shí)還希望LLaMA在新的自然語言研究以及潛在的用例中發(fā)揮更好的作用,對(duì)于問題的回答以及自然語言的理解和閱讀,理解都可能增加當(dāng)前語言模型的理解能力和局限性.
LLaMA-65B目前已經(jīng)有650一個(gè)參數(shù)可以和AI智能的競(jìng)爭(zhēng)對(duì)手谷歌以及openai的產(chǎn)品進(jìn)行對(duì)決,目前公司所研發(fā)的LLaMA-13B在運(yùn)行時(shí)的表現(xiàn)已經(jīng)遠(yuǎn)遠(yuǎn)超過了GPT-3,在目前 AI領(lǐng)域,對(duì)于參數(shù)的數(shù)量多少一直是該領(lǐng)域發(fā)展的,一個(gè)比較大的問題,從目前的機(jī)器學(xué)習(xí)模型可以根據(jù)輸入數(shù)據(jù)來進(jìn)行預(yù)測(cè)和分類,一些比較大型的模型能夠處理一些更復(fù)雜的任務(wù),并且還可以產(chǎn)生連貫的輸出,效率也將大大提高。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。