您的位置: 首頁 >綜合快訊 >

Meta推出LLaMA參加AI大戰(zhàn):比GPT-3小10倍表現(xiàn)更好(LLaMA表現(xiàn)非常優(yōu)異)

2023-02-25 20:32:41 編輯:浦鈞霄 來源:
導讀 在2月25日美國的Facebook德牧公司m1ta推出了全新的,有人工智能支持的大型語言模型LLaMA-13B,根據(jù)看公司的介紹LLaMA-13B比目前的oled的模型小了將近10倍,但是在性能上要遠遠超過LLaMA-13B,根據(jù)meta公司的介紹只是說開發(fā)的LLaMA-13B是公司的新模型,被稱之為大型語言模型,及模型的集合參數(shù)已經(jīng)從之前的70億增長到了650億個,在這一數(shù)據(jù)相比下opn AI的GPT-3模型,就有1751個參數(shù),將使得該應(yīng)用可以在智能手機設(shè)備上進行本地運營,成為一種新的語言助手。

在2月25日美國的Facebook德牧公司m1ta推出了全新的,有人工智能支持的大型語言模型LLaMA-13B,根據(jù)看公司的介紹LLaMA-13B比目前的oled的模型小了將近10倍,但是在性能上要遠遠超過LLaMA-13B,根據(jù)meta公司的介紹只是說開發(fā)的LLaMA-13B是公司的新模型,被稱之為大型語言模型,及模型的集合參數(shù)已經(jīng)從之前的70億增長到了650億個,在這一數(shù)據(jù)相比下opn AI的GPT-3模型,就有1751個參數(shù),將使得該應(yīng)用可以在智能手機設(shè)備上進行本地運營,成為一種新的語言助手。

LLaMA-13B發(fā)展態(tài)勢良好:

 Mita公司將會用最新的采集數(shù)據(jù)訓練LLaMA-13B模型,在今后公司將會使該模型以及權(quán)重的訓練數(shù)據(jù)開源,這對于整個AI智能行業(yè)來說是一個巨大的改變,從目前公布的資料來看,所有參加AI競賽的大型科技公司,對于目前自身的AI技術(shù)都處于高度保密階段,LLaMA目前只能采用公開可用的數(shù)據(jù)來進行訓練,對于模型可被開源并被重復使用,這將對于AI模型的依賴的條件進一步增加。

 M 1ta公司將會用LLaMA作為基礎(chǔ)模型,進行新的AI模型開發(fā),同時還希望LLaMA在新的自然語言研究以及潛在的用例中發(fā)揮更好的作用,對于問題的回答以及自然語言的理解和閱讀,理解都可能增加當前語言模型的理解能力和局限性.

LLaMA-65B目前已經(jīng)有650一個參數(shù)可以和AI智能的競爭對手谷歌以及openai的產(chǎn)品進行對決,目前公司所研發(fā)的LLaMA-13B在運行時的表現(xiàn)已經(jīng)遠遠超過了GPT-3,在目前 AI領(lǐng)域,對于參數(shù)的數(shù)量多少一直是該領(lǐng)域發(fā)展的,一個比較大的問題,從目前的機器學習模型可以根據(jù)輸入數(shù)據(jù)來進行預測和分類,一些比較大型的模型能夠處理一些更復雜的任務(wù),并且還可以產(chǎn)生連貫的輸出,效率也將大大提高。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ   備案號:

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。