您的位置: 首頁(yè) >科技 >

自動(dòng)駕駛對(duì)膚色有歧視 最新研究深色皮膚和兒童更危險(xiǎn)

2023-09-08 17:02:18 編輯:符良嬋 來(lái)源:
導(dǎo)讀 英國(guó)倫敦王國(guó)學(xué)院的研究人員通過(guò)對(duì)8000多張圖片進(jìn)行檢測(cè)之后發(fā)現(xiàn):自動(dòng)駕駛汽車(chē)使用的AI驅(qū)動(dòng)行人監(jiān)測(cè)系統(tǒng),對(duì)兒童的檢測(cè)準(zhǔn)確率比成人低19.6...

英國(guó)倫敦王國(guó)學(xué)院的研究人員通過(guò)對(duì)8000多張圖片進(jìn)行檢測(cè)之后發(fā)現(xiàn):自動(dòng)駕駛汽車(chē)使用的AI驅(qū)動(dòng)行人監(jiān)測(cè)系統(tǒng),對(duì)兒童的檢測(cè)準(zhǔn)確率比成人低19.67%,深色皮膚的檢測(cè)準(zhǔn)確率比淺色皮膚的低7.53%。性別檢測(cè)率的差距并不是很大,只有1.1%的差距。

之所以會(huì)出現(xiàn)這種情況的主要原因是人工智能系統(tǒng)都是通過(guò)大量的數(shù)據(jù)喂養(yǎng)出來(lái)的,這些數(shù)據(jù)必須具有非常全面的覆蓋性。一旦數(shù)據(jù)出現(xiàn)某一方面的缺失,很有可能會(huì)造成人工智能在工作中出現(xiàn)一些偏差。針對(duì)于對(duì)行人檢測(cè)系統(tǒng)公平性缺失的問(wèn)題,之前也有相關(guān)的專(zhuān)業(yè)人士,建議汽車(chē)制造商以及政府應(yīng)該共同制定相關(guān)法規(guī),確保無(wú)人駕駛系統(tǒng)的安全性以及公平性。自動(dòng)駕駛系統(tǒng)還面臨著各種各樣的問(wèn)題,只有在不斷推動(dòng)下才可以完善的解決。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號(hào):

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請(qǐng)將#換成@)