2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
一群AI專家已經(jīng)給亞馬遜簽署了一封公開信,要求該公司在發(fā)現(xiàn)偏見后停止向執(zhí)法部門出售面部識(shí)別。
在一月份,AI News 報(bào)道了算法正義聯(lián)盟創(chuàng)始人Joy Buolamwini的發(fā)現(xiàn),他研究了一些世界上最流行的面部識(shí)別算法。
Buolamwini發(fā)現(xiàn),大多數(shù)算法都是偏見和錯(cuò)誤識(shí)別的,膚色較深的對(duì)象和/或女性更常見。
以下是按準(zhǔn)確性降序排列的結(jié)果:
微軟
較輕的男性(100%)
女性打火機(jī)(98.3%)
黑暗男性(94%)
深色女性(79.2%)
臉++
黑暗男性(99.3%)
男性較輕(99.2%)
女性打火機(jī)(94%)
深色女性(65.5%)
IBM公司
男性較輕(99.7%)
女性打火機(jī)(92.9%)
黑暗男性(88%)
深色女性(65.3%)
亞馬遜高管對(duì)調(diào)查結(jié)果表示譴責(zé),并聲稱使用的準(zhǔn)確性低于他們建議用于執(zhí)法部門的準(zhǔn)確性。
“對(duì)新技術(shù)的焦慮的答案不是進(jìn)行與該服務(wù)的使用方式不一致的'測試',并通過新聞媒體來放大測試的錯(cuò)誤和誤導(dǎo)性結(jié)論,”亞馬遜云AI總經(jīng)理Matt Wood計(jì)算部門,寫在一月份的博客文章中。
公開信的簽字人來到了布拉姆維尼的辯護(hù)人面前,其中包括AI先驅(qū)Yoshua Bengio,他是圖靈獎(jiǎng)的最近獲獎(jiǎng)?wù)摺?/p>
他們寫道:“與伍德博士的主張相反,在一個(gè)系統(tǒng)中發(fā)現(xiàn)的偏見在另一個(gè)系統(tǒng)中引起關(guān)注,尤其是在可能嚴(yán)重影響人們生活的用例中,例如執(zhí)法應(yīng)用。”
盡管擁有最準(zhǔn)確的面部識(shí)別能力,但自Buolamwini的工作以來,Microsoft對(duì)此并不滿意,并進(jìn)一步提高了準(zhǔn)確性。該公司支持一項(xiàng)政策,要求在使用面部識(shí)別的任何地方都必須看到標(biāo)志。
IBM在提高代表社會(huì)各階層的算法的準(zhǔn)確性方面也取得了長足的進(jìn)步。今年早些時(shí)候,該公司發(fā)布了一個(gè)新的100萬圖像數(shù)據(jù)集,該數(shù)據(jù)集更能代表社會(huì)的多樣性。
當(dāng)Buolamwini重新評(píng)估IBM的算法時(shí),評(píng)估深色男性的準(zhǔn)確性從88%上升到99.4%,深色女性從65.3%上升到83.5%,深色女性從92.9%上升到97.6%,而深色男性則保持在97不變百分。
Buolamwini評(píng)論說:“所以,對(duì)于每個(gè)觀看我的TED演講的人說:'這不是因?yàn)槲锢矶鴮?dǎo)致您未被發(fā)現(xiàn)的原因嗎?您的皮膚反射率,對(duì)比度等”,在我進(jìn)行研究的2017年12月至2018年發(fā)布新結(jié)果之間,物理定律沒有改變。”
“所做的改變是他們將其作為優(yōu)先事項(xiàng)。”
除了可能自動(dòng)解決的社會(huì)問題(如種族概況)外,不正確的面部識(shí)別可能是生與死之間的差異。例如,最近的一項(xiàng)研究(PDF)發(fā)現(xiàn),無人駕駛汽車在為行人觀察道路時(shí),很難檢測到膚色較深的人。
每個(gè)人,不僅是AI專家,都應(yīng)該向公司施加壓力,以確保偏差與算法保持良好的距離。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。