您的位置: 首頁 >汽車 >

自動駕駛存在嚴重問題 可能導致延誤時間過長

2019-04-02 17:38:20 編輯: 來源:
導讀 Whack-a-mole還不夠好。中國對特斯拉自動駕駛儀不足之處的展示(見此處)也清楚地表明,目前在事件發(fā)生后沖出軟件補丁的方法對于自動駕駛汽車

Whack-a-mole還不夠好。

中國對特斯拉自動駕駛儀不足之處的展示(見此處)也清楚地表明,目前在事件發(fā)生后沖出軟件補丁的方法對于自動駕駛汽車來說根本不夠好。人們只需要關(guān)注波音以及由于其失速系統(tǒng)中的所謂錯誤而導致的問題的嚴重性,以表明自動駕駛汽車可靠性的關(guān)鍵性質(zhì)。

騰訊安全實驗室的研究人員設(shè)法讓特斯拉自動駕駛儀通過在路上放置微小的可感知的貼紙來轉(zhuǎn)向迎面而來的交通。這些貼紙被自動駕駛儀視為車道標記,具有高度的置信度,導致車輛突然轉(zhuǎn)向迎面而來的車輛。

車輛的問題在于,在許多情況下,在問題發(fā)生后修補錯誤并不足以解決人的生命危險。這就是為什么汽車行業(yè)比大多數(shù)硅谷產(chǎn)品具有更高的安全性和可靠性標準。

這個問題也凸顯了使用深度學習模型駕駛車輛的主要問題之一。深度學習在數(shù)據(jù)集有限且穩(wěn)定的情況下表現(xiàn)優(yōu)異。這確保了模型實際上可以實際顯示在每個數(shù)據(jù)點上,并且這些數(shù)據(jù)點不會改變。然而,道路既不是這兩件事,也不意味著深度學習算法本身不太可能將車輛驅(qū)動到足夠高的安全標準。

在傳統(tǒng)的硅谷思維模式(whack-a-mole)中,這意味著每次打破系統(tǒng)時都會對系統(tǒng)進行修補,但是當人們開始死亡時,這種情況就不會那么好了。這符合RFM研究(見此處),該研究突出了深度學習的局限性,這可能導致第三次 AI冬季。最終結(jié)果是需要采用不同的自動駕駛方法,并且從頭開始重新考慮系統(tǒng)需要時間。RFM暫時堅持其2028年的自動駕駛汽車商業(yè)可用性,但它開始看起來有點不穩(wěn)定。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。