2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Sber 的新聞服務(wù)部門告訴 Durov 的代碼,根據(jù)評估大型文本模型俄羅斯 SuperGLUE 的主要俄語基準(zhǔn)的評估,由 SberDevices 開發(fā)的 ruRoberta-large 微調(diào)文本模型被認(rèn)為是文本理解方面的最佳選擇。在這個評級中,該模型的準(zhǔn)確性僅次于人類。
該公司解釋說,ruRoBERTa 在架構(gòu)上與 BERT 相同,在大量文本上進(jìn)行訓(xùn)練,僅用于恢復(fù)屏蔽標(biāo)記的任務(wù),使用來自 ruGPT-3 神經(jīng)網(wǎng)絡(luò)的 BBPE 標(biāo)記器。值得注意的是,在 Christophari 超級計算機(jī)上訓(xùn)練模型需要三周時間。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。