您的位置: 首頁(yè) >科技 >

歐盟已經(jīng)發(fā)布了關(guān)于發(fā)展道德人工智能的新指南

2019-04-22 11:28:43 編輯: 來(lái)源:
導(dǎo)讀 歐盟今天發(fā)布了一套關(guān)于公司和政府應(yīng)如何開發(fā)人工智能道德應(yīng)用的指導(dǎo)方針。這些規(guī)則與艾薩克·阿西莫夫的機(jī)器人三定律不同。他們沒(méi)有提供一

歐盟今天發(fā)布了一套關(guān)于公司和政府應(yīng)如何開發(fā)人工智能道德應(yīng)用的指導(dǎo)方針。

這些規(guī)則與艾薩克·阿西莫夫的“機(jī)器人三定律”不同。他們沒(méi)有提供一個(gè)有助于我們控制殺人機(jī)器人的活潑,道德的框架。相反,它們解決了影響社會(huì)的模糊和分散的問(wèn)題,因?yàn)槲覀儗⑷斯ぶ悄苷系结t(yī)療保健,教育和消費(fèi)者技術(shù)等領(lǐng)域。

因此,例如,如果AI系統(tǒng)在未來(lái)的某個(gè)時(shí)間診斷您患有癌癥,歐盟的指導(dǎo)方針將要確保發(fā)生一些事情:軟件沒(méi)有因您的種族或性別而受到偏見,它沒(méi)有不要超越人類醫(yī)生的反對(duì)意見,而是讓患者可以選擇向他們解釋他們的診斷。

所以,是的,這些指導(dǎo)方針是關(guān)于阻止人工智能運(yùn)行,但在管理和官僚程度,而不是阿西莫夫式的謀殺之謎。

為了實(shí)現(xiàn)這一目標(biāo),歐盟召集了一個(gè)由52位專家組成的小組,他們提出了他們認(rèn)為未來(lái)AI系統(tǒng)應(yīng)該滿足的七項(xiàng)要求。它們?nèi)缦拢?/p>

人道機(jī)構(gòu)和監(jiān)督 - 人工智能不應(yīng)該踐踏人類自治。人們不應(yīng)該被人工智能系統(tǒng)操縱或脅迫,人類應(yīng)該能夠干預(yù)或監(jiān)督軟件做出的每一個(gè)決定。

技術(shù)穩(wěn)健性和安全性 - AI應(yīng)該是安全和準(zhǔn)確的。它不應(yīng)該容易受到外部攻擊(例如對(duì)抗性示例)的影響,并且它應(yīng)該是相當(dāng)可靠的。

隱私和數(shù)據(jù)治理 - AI系統(tǒng)收集的個(gè)人數(shù)據(jù)應(yīng)該是安全和私密的。任何人都不應(yīng)該訪問(wèn)它,它不應(yīng)該被輕易竊取。

透明度 - 用于創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問(wèn)的,軟件做出的決策應(yīng)該“被人類理解和追蹤”。換句話說(shuō),運(yùn)營(yíng)商應(yīng)該能夠解釋他們的AI系統(tǒng)做出的決策。

多元化,非歧視和公平 - 人工智能提供的服務(wù)應(yīng)該適用于所有人,無(wú)論年齡,性別,種族或其他特征如何。同樣,系統(tǒng)也不應(yīng)該偏向于這些界限。

環(huán)境和社會(huì)福祉 - 人工智能系統(tǒng)應(yīng)該是可持續(xù)的(即,他們應(yīng)該對(duì)生態(tài)負(fù)責(zé))和“增強(qiáng)積極的社會(huì)變革”

問(wèn)責(zé)制 - 人工智能系統(tǒng)應(yīng)該是可審??計(jì)的,并由公司舉報(bào)人的現(xiàn)有保護(hù)措施涵蓋。系統(tǒng)的負(fù)面影響應(yīng)該事先得到承認(rèn)和報(bào)告。

您會(huì)注意到其中一些要求非常抽象,難以從客觀意義上進(jìn)行評(píng)估。(例如,“積極的社會(huì)變革”的定義因人而異,國(guó)家之間存在巨大差異。)但其他人則更為直截了當(dāng),可以通過(guò)政府監(jiān)督進(jìn)行檢驗(yàn)。例如,共享用于訓(xùn)練政府AI系統(tǒng)的數(shù)據(jù)可能是對(duì)抗偏見算法的好方法。

這些準(zhǔn)則沒(méi)有法律約束力,但它們可能影響歐盟起草的任何未來(lái)立法。歐盟一再表示希望成為道德AI的領(lǐng)導(dǎo)者,并且已經(jīng)向GDPR表明它愿意制定保護(hù)數(shù)字權(quán)利的深遠(yuǎn)法律。

但這種作用在一定程度上是由環(huán)境強(qiáng)加給歐盟的。在涉及投資和尖端研究時(shí),它無(wú)法與美國(guó)和中國(guó) - 世界人工智能的領(lǐng)導(dǎo)者 - 競(jìng)爭(zhēng),因此選擇道德是塑造技術(shù)未來(lái)的最佳選擇。

作為這項(xiàng)工作的一部分,今天的報(bào)告包括所謂的“值得信賴的AI評(píng)估列表” - 一系列問(wèn)題,可幫助專家找出AI軟件中任何潛在的弱點(diǎn)或危險(xiǎn)。此列表包含的問(wèn)題包括“您是否驗(yàn)證了系統(tǒng)在意外情況和環(huán)境中的行為?”和“您是否評(píng)估了數(shù)據(jù)集中數(shù)據(jù)的類型和范圍?”

這些評(píng)估清單只是初步的,但歐盟將在未來(lái)幾年收集公司的反饋意見,并在2020年提交有關(guān)其效用的最終報(bào)告。

數(shù)字版權(quán)組織Access Now的政策經(jīng)理FannyHidvégi和幫助編寫今天指南的專家表示,評(píng)估列表是報(bào)告中最重要的部分。Hidvégi告訴The Verge,“它為如何減輕人工智能的潛在危害提供了一個(gè)實(shí)用的,前瞻性的視角” 。

“我們認(rèn)為,歐盟有潛力和責(zé)任成為這項(xiàng)工作的重中之重,”Hidvégi說(shuō)。“但我們確實(shí)認(rèn)為歐盟不應(yīng)該停留在道德準(zhǔn)則上......它只能在合法合規(guī)的基礎(chǔ)上發(fā)揮作用。”

其他人懷疑歐盟試圖通過(guò)倫理研究來(lái)塑造全球人工智能的發(fā)展方式會(huì)產(chǎn)生很大的影響。

“我們對(duì)所采取的方法持懷疑態(tài)度,認(rèn)為通過(guò)為道德人工智能創(chuàng)建一個(gè)黃金標(biāo)準(zhǔn),它將確認(rèn)歐盟在全球人工智能開發(fā)中的地位,”數(shù)據(jù)創(chuàng)新智庫(kù)中心的高級(jí)政策分析師Eline Chivot告訴他們邊緣。“要成為道德人工智能領(lǐng)域的領(lǐng)導(dǎo)者,首先必須引領(lǐng) 人工智能本身。”


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。