2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
隨著越來越多的人工智能應(yīng)用程序轉(zhuǎn)向智能手機(jī),深度學(xué)習(xí)模型越來越小,可以讓應(yīng)用程序運(yùn)行得更快,節(jié)省電池電量 現(xiàn)在,麻省理工學(xué)院的研究人員有了一種新的更好的方法來壓縮模型。 它是如此簡單,以至于他們?cè)谏蟼€(gè)月的一條推特上公布了它:訓(xùn)練模型,修剪它最薄弱的連接,以其快速、早期的訓(xùn)練速度重新訓(xùn)練模型,并重復(fù),直到模型像你想要的那么小。 “就這樣,”亞歷克斯·倫達(dá)博士說。 麻省理工D 學(xué)生。 “人們修
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。