2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
近日,一款名為MLC LLM的項(xiàng)目在GitHub上線,引起了不少關(guān)注。這個(gè)項(xiàng)目是一個(gè)無需聯(lián)網(wǎng)的開源人工智能聊天機(jī)器人,能夠在手機(jī)上運(yùn)行。它的本質(zhì)是一種通用解決方案,允許將任何語言模型本地部署在一組不同的硬件后端和本地應(yīng)用程序上。同時(shí),它還有著一個(gè)高效的框架,供每個(gè)人進(jìn)一步優(yōu)化自己用例的模型性能。這些模型在本地運(yùn)行,無需服務(wù)器支持,并通過手機(jī)或筆記本電腦上的本地GPU加速。
該項(xiàng)目使用了Vicuna-7B-V1.1,這是一種基于Meta開發(fā)的LLaMA模型的輕量級(jí)LLM。雖然效果不如GPT3.5或GPT4,但在大小方面比較占優(yōu)勢。目前,該項(xiàng)目可用于Windows、Linux、macOS和iOS平臺(tái),但暫時(shí)還沒有適用于Android的版本。
MLC LLM的開發(fā)團(tuán)隊(duì)來自卡內(nèi)基梅隆大學(xué)的Catalyst計(jì)劃、SAMPL機(jī)器學(xué)習(xí)研究小組以及華盛頓大學(xué)、上海交通大學(xué)和OctoML等。這些專家利用自己的技術(shù)和知識(shí),開發(fā)了這個(gè)通用解決方案,可以讓人們更輕松地使用自然語言處理和人工智能技術(shù),同時(shí)也讓這些技術(shù)更加普及和易于使用。
總的來說,MLC LLM是一款非常有潛力的開源項(xiàng)目,可以為人工智能技術(shù)的發(fā)展和普及做出貢獻(xiàn)。它的出現(xiàn)不僅為人們提供了一種方便、快捷的聊天機(jī)器人應(yīng)用,同時(shí)也為開發(fā)人員和科技愛好者提供了一個(gè)可探索的平臺(tái),讓他們可以嘗試各種模型和算法,并不斷優(yōu)化和改進(jìn)。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)