您的位置: 首頁 >科技 >

科技的白人男性勞動力如何向人工智能提供偏見

2019-04-26 15:36:06 編輯: 來源:
導讀 大約80%的人工智能教授都是男性,而女性在Facebook的人工智能研究人員中占15%,在谷歌則占10%。對于主要科技公司的黑人員工,這一比例甚至

大約80%的人工智能教授都是男性,而女性在Facebook的人工智能研究人員中占15%,在谷歌則占10%。

對于主要科技公司的黑人員工,這一比例甚至更低,谷歌只有2.5%,F(xiàn)acebook和微軟只有4%。

一項新研究表明,當人工智能項目由大多數(shù)白人男性工作者構建時,偏見滲透,他們強調(diào)“對'正常'人的狹隘觀念”。

根據(jù)紐約大學AI Now研究所的一份新報告,科技行業(yè)大多數(shù)白人男性編碼人員正在制造“多元化危機”,其偏見滲透到面部識別程序和聊天機器人等產(chǎn)品中。該報告重點介紹了Google,F(xiàn)acebook和微軟等主要科技公司的勞動力性別失衡如何幫助人工智能中的偏見。

AI用于從面部識別到聊天機器人的各種產(chǎn)品。但該報告指出,在Facebook上只有15%的人工智能研究人員是女性,而對谷歌來說,它甚至更低,為10%。

這強調(diào)了該研究的作者所說的反映多元化社會的多元化勞動力的重要性。他們認為,科技行業(yè)的大多數(shù)白人男性人工智能編碼器與技術產(chǎn)品中的偏見有關。他們表示,對問題進行補救將需要更廣泛的多樣性方法,包括從精英校園以外的大學招聘,以及提高AI產(chǎn)品的透明度。

“到目前為止,人工智能行業(yè)的多樣性問題以及它所構建的系統(tǒng)中的偏見問題都傾向于單獨考慮,”作者Sarah Myers West,Meredith Whittaker和Kate Crawford寫道。“但我們認為這些是同一問題的兩個版本:勞動力和制度建設中的歧視問題深深地交織在一起。”

“'正常'人的狹隘觀念”

研究人員寫道,不僅人工智能可能會歧視某些類型的人,而且它“對他人有利,加強了對'正常'人的狹隘觀念”。

該報告強調(diào)了人工智能計劃為已經(jīng)遭受偏見的群體創(chuàng)造有害環(huán)境的幾種方式。其中包括:

亞馬遜人工智能招聘工具掃描申請人的簡歷依賴于之前的招聘簡歷,為理想的招聘設定標準。然而,人工智能開始降低參加女子學院的申請人的評級,或者在簡歷中加入“女性”一詞。

亞馬遜的Rekognition面部分析計劃難以識別黑皮膚的女性。根據(jù)一份報告,該計劃誤認為他們是男性,雖然該計劃沒有任何問題識別男性的任何膚色。

“深切關注”

對于人工智能內(nèi)部的偏見問題,紐約大學并不是第一個發(fā)出警告的人。諸如麻省理工學院技術評論和ACLU等團體已經(jīng)記錄了影響招聘和刑事判決等問題的問題結果。

麻省理工學院技術評論指出,問題源于深度學習階段,當編碼員通過培訓數(shù)據(jù)“教授”一個項目時。程序員可以依靠不能準確反映世界的數(shù)據(jù)集來向系統(tǒng)添加偏見,例如依賴包含極少數(shù)黑人的面部圖像。

程序員還可以通過確定哪些屬性很重要來增加偏見 - 例如性別。如果一家公司以前的雇員大多是男性,該計劃可能會學習排除女性,如亞馬遜的招聘計劃,加強了招聘的偏見模式。

“人工智能系統(tǒng)用于種族和性別的分類,檢測和預測是迫切需要重新評估的,”紐約大學的研究人員指出。“這些工具的商業(yè)部署引起了人們的深切關注。”


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。