2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
大約80%的人工智能教授都是男性,而女性在Facebook的人工智能研究人員中占15%,在谷歌則占10%。
對(duì)于主要科技公司的黑人員工,這一比例甚至更低,谷歌只有2.5%,F(xiàn)acebook和微軟只有4%。
一項(xiàng)新研究表明,當(dāng)人工智能項(xiàng)目由大多數(shù)白人男性工作者構(gòu)建時(shí),偏見(jiàn)滲透,他們強(qiáng)調(diào)“對(duì)'正常'人的狹隘觀念”。
根據(jù)紐約大學(xué)AI Now研究所的一份新報(bào)告,科技行業(yè)大多數(shù)白人男性編碼人員正在制造“多元化危機(jī)”,其偏見(jiàn)滲透到面部識(shí)別程序和聊天機(jī)器人等產(chǎn)品中。該報(bào)告重點(diǎn)介紹了Google,F(xiàn)acebook和微軟等主要科技公司的勞動(dòng)力性別失衡如何幫助人工智能中的偏見(jiàn)。
AI用于從面部識(shí)別到聊天機(jī)器人的各種產(chǎn)品。但該報(bào)告指出,在Facebook上只有15%的人工智能研究人員是女性,而對(duì)谷歌來(lái)說(shuō),它甚至更低,為10%。
這強(qiáng)調(diào)了該研究的作者所說(shuō)的反映多元化社會(huì)的多元化勞動(dòng)力的重要性。他們認(rèn)為,科技行業(yè)的大多數(shù)白人男性人工智能編碼器與技術(shù)產(chǎn)品中的偏見(jiàn)有關(guān)。他們表示,對(duì)問(wèn)題進(jìn)行補(bǔ)救將需要更廣泛的多樣性方法,包括從精英校園以外的大學(xué)招聘,以及提高AI產(chǎn)品的透明度。
“到目前為止,人工智能行業(yè)的多樣性問(wèn)題以及它所構(gòu)建的系統(tǒng)中的偏見(jiàn)問(wèn)題都傾向于單獨(dú)考慮,”作者Sarah Myers West,Meredith Whittaker和Kate Crawford寫(xiě)道。“但我們認(rèn)為這些是同一問(wèn)題的兩個(gè)版本:勞動(dòng)力和制度建設(shè)中的歧視問(wèn)題深深地交織在一起。”
“'正常'人的狹隘觀念”
研究人員寫(xiě)道,不僅人工智能可能會(huì)歧視某些類(lèi)型的人,而且它“對(duì)他人有利,加強(qiáng)了對(duì)'正常'人的狹隘觀念”。
該報(bào)告強(qiáng)調(diào)了人工智能計(jì)劃為已經(jīng)遭受偏見(jiàn)的群體創(chuàng)造有害環(huán)境的幾種方式。其中包括:
亞馬遜人工智能招聘工具掃描申請(qǐng)人的簡(jiǎn)歷依賴(lài)于之前的招聘簡(jiǎn)歷,為理想的招聘設(shè)定標(biāo)準(zhǔn)。然而,人工智能開(kāi)始降低參加女子學(xué)院的申請(qǐng)人的評(píng)級(jí),或者在簡(jiǎn)歷中加入“女性”一詞。
亞馬遜的Rekognition面部分析計(jì)劃難以識(shí)別黑皮膚的女性。根據(jù)一份報(bào)告,該計(jì)劃誤認(rèn)為他們是男性,雖然該計(jì)劃沒(méi)有任何問(wèn)題識(shí)別男性的任何膚色。
“深切關(guān)注”
對(duì)于人工智能內(nèi)部的偏見(jiàn)問(wèn)題,紐約大學(xué)并不是第一個(gè)發(fā)出警告的人。諸如麻省理工學(xué)院技術(shù)評(píng)論和ACLU等團(tuán)體已經(jīng)記錄了影響招聘和刑事判決等問(wèn)題的問(wèn)題結(jié)果。
麻省理工學(xué)院技術(shù)評(píng)論指出,問(wèn)題源于深度學(xué)習(xí)階段,當(dāng)編碼員通過(guò)培訓(xùn)數(shù)據(jù)“教授”一個(gè)項(xiàng)目時(shí)。程序員可以依靠不能準(zhǔn)確反映世界的數(shù)據(jù)集來(lái)向系統(tǒng)添加偏見(jiàn),例如依賴(lài)包含極少數(shù)黑人的面部圖像。
程序員還可以通過(guò)確定哪些屬性很重要來(lái)增加偏見(jiàn) - 例如性別。如果一家公司以前的雇員大多是男性,該計(jì)劃可能會(huì)學(xué)習(xí)排除女性,如亞馬遜的招聘計(jì)劃,加強(qiáng)了招聘的偏見(jiàn)模式。
“人工智能系統(tǒng)用于種族和性別的分類(lèi),檢測(cè)和預(yù)測(cè)是迫切需要重新評(píng)估的,”紐約大學(xué)的研究人員指出。“這些工具的商業(yè)部署引起了人們的深切關(guān)注。”
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。