2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。
隨著企業(yè)探索利用機器學習(ML)和其他AI工具挖掘客戶見解,識別人才并保護公司網(wǎng)絡安全的方式,人工智能(AI)可能是數(shù)字時代最具破壞力的技術。盡管IT部門可以迅速推出并從大多數(shù)技術中受益,但有證據(jù)表明CIO在實施AI時應格外謹慎,包括采用具有強烈道德考量的技術。
原因?人工智能遭受了很大的偏差問題。在一個示例中,Amazon在未能公平評價女性在軟件開發(fā)人員職位和其他技術職位上的工作后,就取消了招聘工具。在另一個例子中,麻省理工學院和多倫多大學的研究人員發(fā)現(xiàn),該公司的面部識別軟件將女性(尤其是皮膚黝黑的女性)誤認為男性。
并非只有Amazon,因為其他公司和其他高風險領域都出現(xiàn)了AI問題。在測試公司的Portal視頻聊天設備時,F(xiàn)acebook程序經(jīng)理遇到了算法歧視。ProPublica顯示,在使用的用于預測未來罪犯的軟件偏向于非裔人。加州大學伯克利分校(UC Berkeley)對金融科技公司的一項研究發(fā)現(xiàn),按揭貸款的面對面決策和算法都向拉丁裔/非裔人借款人收取更高的利率。
同樣令人關注的是利潤率周圍的歧視,這種偏見在其微妙之處是隱蔽的。在“ 代理人歧視 ”中,郵政編碼可以充當種族的代理;選擇單詞可以代表性別;并加入有關基因突變的Facebook小組可能會使一個人處于醫(yī)療保險的高風險類別,即使該信號尚未明確編碼到算法中。
顯然,人工智能遭受數(shù)字化版本的偏見折磨著現(xiàn)實世界。紐約大學AI Now研究所的聯(lián)合創(chuàng)始人 凱特·克勞福德(Kate Crawford)說,歸根結底,算法是一種“人類設計的創(chuàng)造”,它繼承了我們的偏見。根據(jù)IEEE Spectrum的說法,這種偏差跨越了數(shù)十年。
因此,IT領導者越來越關注產(chǎn)生“可解釋的” AI。他們渴望算法的結果可以清楚地表達出來,理想地滿足監(jiān)管者和業(yè)務主管的要求。但是鑒于固有的偏見,也許他們真正需要的是“ 道德的AI ”,或者以完全包容的公平性運作的算法。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。