2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
數(shù)據(jù)科學是艱苦的工作,而不是魔咒。一個AI模型的性能是否如所宣傳的取決于其訓練的程度,并且沒有“一刀切”的方法來訓練AI模型。
分布式AI培訓的必要弊端
縮放是訓練AI模型時最棘手的考慮之一。當模型變得過于資源匱乏而無法在任何單個計算平臺上進行整體處理時,培訓就尤其具有挑戰(zhàn)性。模型可能已經(jīng)變得很大,超過了單個處理平臺的內(nèi)存限制,或者加速器需要開發(fā)特殊的算法或基礎結(jié)構(gòu)。訓練數(shù)據(jù)集可能會變得如此龐大,以至于訓練花費了非常長的時間,并且變得非常昂貴。
如果我們不要求模型特別擅長于其分配的任務,那么縮放就可以輕而易舉。但是,隨著我們提高推理準確性的水平,培訓過程可能會花費更長的時間并消耗更多的資源。解決此問題不僅僅是解決問題的能力更強的硬件。與許多應用程序工作負載一樣,隨著AI模型復雜性的增加,不能僅依靠更快的處理器來維持線性擴展。
可能需要進行分布式培訓。如果可以將模型的組件劃分并分發(fā)到優(yōu)化的節(jié)點以進行并行處理,則可以大大減少訓練模型所需的時間。但是,考慮到統(tǒng)計模型的構(gòu)造有多脆弱,并行化本身本身就是一件繁瑣的工作。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。