您的位置: 首頁 >汽車 >

300美元的投影儀怎么能騙過特斯拉的自動(dòng)駕駛儀

2022-05-23 15:45:01 編輯:澹臺(tái)欣玲 來源:
導(dǎo)讀 6個(gè)月前,Ben- gurion大學(xué)的博士生Ben Nassi在Yuval Elovici教授的指導(dǎo)下,成功地對(duì)Mobileye 630 Pro驅(qū)動(dòng)輔助系統(tǒng)進(jìn)行了一系列的欺騙

6個(gè)月前,Ben- gurion大學(xué)的博士生Ben Nassi在Yuval Elovici教授的指導(dǎo)下,成功地對(duì)Mobileye 630 Pro驅(qū)動(dòng)輔助系統(tǒng)進(jìn)行了一系列的欺騙攻擊,使用廉價(jià)的無人機(jī)和電池供電的投影儀。從那以后,他把這項(xiàng)技術(shù)擴(kuò)展到了實(shí)驗(yàn)階段——也很成功——他把一輛特斯拉Model X搞糊涂了,并將在特拉維夫舉行的以色列網(wǎng)絡(luò)技術(shù)大會(huì)(Cybertech Israel conference)上展示他的發(fā)現(xiàn)。

欺騙攻擊在很大程度上依賴于人和人工智能圖像識(shí)別的區(qū)別。在大多數(shù)情況下,圖像Nassi和他的團(tuán)隊(duì)將巨魔特斯拉不會(huì)欺騙一個(gè)典型的人類司機(jī),有些欺騙攻擊近隱,依靠感知的差異不僅讓欺騙成功,還試圖逃避人類觀察員。

納西制作了一個(gè)視頻,概述了他認(rèn)為的這些欺騙攻擊的危險(xiǎn),他稱之為“ADAS幽靈”,還有一個(gè)提供視頻的小網(wǎng)站,一個(gè)概述他工作的摘要,以及整篇參考論文本身。我們并不一定同意spin Nassi的工作,在很大程度上,在我們看來,特斯拉對(duì)這些故意混淆它的傳感器的嘗試做出了相當(dāng)合理和良好的反應(yīng)。然而,我們確實(shí)認(rèn)為這種工作很重要,因?yàn)樗C明了半自主駕駛系統(tǒng)防御設(shè)計(jì)的必要性。

納西和他的團(tuán)隊(duì)對(duì)Model X的惡搞是在一名手持投影儀的人類助手的幫助下進(jìn)行的,這是由于實(shí)驗(yàn)所在國家的無人機(jī)法律所規(guī)定的。但這一惡搞也可能是由無人機(jī)實(shí)施的,就像他早些時(shí)候?qū)σ苿?dòng)眼(Mobileye)駕駛員協(xié)助系統(tǒng)進(jìn)行的欺騙攻擊一樣。

從安全的角度來看,這里有趣的角度是攻擊者不必在攻擊現(xiàn)場,也不需要留下任何證據(jù),而且攻擊者不需要太多的技術(shù)專長。一個(gè)擁有價(jià)值400美元的無人機(jī)和電池供電投影儀的青少年完全可以做到這一點(diǎn),因?yàn)樗恢馈昂?,在高速公路上攔截汽車會(huì)很滑稽,不是嗎?”nassi的團(tuán)隊(duì)成功地使用了幾臺(tái)200- 300美元的投影儀,其中一臺(tái)只有854x480分辨率和100流明。

當(dāng)然,任何人都不應(yīng)該讓特斯拉在一開始就無人駕駛——自動(dòng)駕駛儀是二級(jí)駕駛員輔助系統(tǒng),而不是全自動(dòng)汽車的控制器。盡管特斯拉沒有回應(yīng)記者的置評(píng)請(qǐng)求,但該公司的宣傳資料非常清楚地描述了Autopilot(我們的重點(diǎn)):

自動(dòng)駕駛儀是打算只使用一個(gè)完全專注的司機(jī),他們的手在方向盤上,并準(zhǔn)備隨時(shí)接管。雖然Autopilot的設(shè)計(jì)目的是隨著時(shí)間的推移變得更有能力,但以目前的形式來看,它不是一個(gè)自動(dòng)駕駛系統(tǒng),它不會(huì)把特斯拉變成自動(dòng)駕駛汽車,也不允許駕駛員放棄責(zé)任。如果使用得當(dāng),自動(dòng)駕駛儀可以減少駕駛員的總體工作量,8個(gè)外部攝像頭、雷達(dá)和12個(gè)超聲波傳感器的冗余提供了一個(gè)額外的安全層,這是單靠兩只眼睛無法做到的。

即使是“自動(dòng)駕駛儀”這個(gè)名字本身也不像很多人認(rèn)為的那么不合適——至少,如果你首先了解現(xiàn)代航空和海上自動(dòng)駕駛儀系統(tǒng)的現(xiàn)實(shí)的話。維基百科引用了美國聯(lián)邦航空管理局的先進(jìn)航空電子設(shè)備手冊(cè),其中將自動(dòng)駕駛系統(tǒng)定義為“不取代人類駕駛員的系統(tǒng),(但)協(xié)助駕駛員控制車輛?!痹诟呒?jí)航空電子手冊(cè)的自動(dòng)飛行控制章節(jié)的第一頁,它寫道:“除了學(xué)習(xí)如何使用自動(dòng)駕駛儀,你還必須學(xué)習(xí)何時(shí)使用它,何時(shí)不使用它。”

在這些限制條件下,即使是在Nassi的視頻中展示的最糟糕的反應(yīng)——Model X在道路上轉(zhuǎn)向跟隨假的車道標(biāo)記——似乎也不是那么糟糕。事實(shí)上,這段視頻準(zhǔn)確地展示了應(yīng)該發(fā)生的事情:Model x的車主很擔(dān)心他/她那輛昂貴的車會(huì)出什么問題——在自動(dòng)駕駛儀轉(zhuǎn)向不安全的方向后,他/她踩下了剎車,然后手動(dòng)控制。

問題是,有充分的理由相信有太多的司機(jī)不相信他們真的需要注意。2019年的一項(xiàng)調(diào)查顯示,近一半接受調(diào)查的司機(jī)認(rèn)為,在打開自動(dòng)駕駛儀時(shí),把手從方向盤上拿開是安全的,6%的人甚至認(rèn)為可以小睡一會(huì)兒。最近,馬薩諸塞州民主黨參議員愛德華·馬基(Edward Markey)呼吁特斯拉提高其營銷和文件的透明度,而民主黨總統(tǒng)候選人楊致遠(yuǎn)(Andrew Yang)在一次競選廣告中也像之前的埃隆·馬斯克(Elon Musk)在2018年的一個(gè)60分鐘的視頻片段中所做的那樣,放手不管。

也許是時(shí)候考慮專門針對(duì)無人機(jī)和投影儀的立法了,就像激光指示器在變得流行和便宜之后受到監(jiān)管一樣。在這里進(jìn)行的欺騙攻擊中使用的一些技術(shù)也可能使人類司機(jī)感到困惑。雖然人類司機(jī)至少在理論上是可用的,警惕的,并準(zhǔn)備接管任何混亂的人工智能系統(tǒng),今天,這不會(huì)是永遠(yuǎn)的情況。在我們不再有人支持之前,著手制定禁止欺騙車輛傳感器的法規(guī)是個(gè)好主意。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號(hào):

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)