2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Whack-a-mole還不夠好。
中國對特斯拉自動駕駛儀不足之處的展示(見此處)也清楚地表明,目前在事件發(fā)生后沖出軟件補丁的方法對于自動駕駛汽車來說根本不夠好。人們只需要關(guān)注波音以及由于其失速系統(tǒng)中的所謂錯誤而導致的問題的嚴重性,以表明自動駕駛汽車可靠性的關(guān)鍵性質(zhì)。
騰訊安全實驗室的研究人員設法讓特斯拉自動駕駛儀通過在路上放置微小的可感知的貼紙來轉(zhuǎn)向迎面而來的交通。這些貼紙被自動駕駛儀視為車道標記,具有高度的置信度,導致車輛突然轉(zhuǎn)向迎面而來的車輛。
車輛的問題在于,在許多情況下,在問題發(fā)生后修補錯誤并不足以解決人的生命危險。這就是為什么汽車行業(yè)比大多數(shù)硅谷產(chǎn)品具有更高的安全性和可靠性標準。
這個問題也凸顯了使用深度學習模型駕駛車輛的主要問題之一。深度學習在數(shù)據(jù)集有限且穩(wěn)定的情況下表現(xiàn)優(yōu)異。這確保了模型實際上可以實際顯示在每個數(shù)據(jù)點上,并且這些數(shù)據(jù)點不會改變。然而,道路既不是這兩件事,也不意味著深度學習算法本身不太可能將車輛驅(qū)動到足夠高的安全標準。
在傳統(tǒng)的硅谷思維模式(whack-a-mole)中,這意味著每次打破系統(tǒng)時都會對系統(tǒng)進行修補,但是當人們開始死亡時,這種情況就不會那么好了。這符合RFM研究(見此處),該研究突出了深度學習的局限性,這可能導致第三次 AI冬季。最終結(jié)果是需要采用不同的自動駕駛方法,并且從頭開始重新考慮系統(tǒng)需要時間。RFM暫時堅持其2028年的自動駕駛汽車商業(yè)可用性,但它開始看起來有點不穩(wěn)定。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。