您的位置: 首頁 >互聯(lián)網(wǎng) >

新模式可以幫助AI做出更多道德選擇

2022-07-16 20:22:41 編輯:裴環(huán)軍 來源:
導(dǎo)讀 當前,人工智能倫理是一個熱門話題,尤其是圍繞面部識別軟件的持續(xù)爭議。現(xiàn)在,數(shù)學(xué)家已經(jīng)開發(fā)出一種模型,該模型可以幫助企業(yè)發(fā)現(xiàn)商業(yè)...

當前,人工智能倫理是一個熱門話題,尤其是圍繞面部識別軟件的持續(xù)爭議?,F(xiàn)在,數(shù)學(xué)家已經(jīng)開發(fā)出一種模型,該模型可以幫助企業(yè)發(fā)現(xiàn)商業(yè)AI系統(tǒng)何時可能在追求利潤時做出陰險的選擇。

現(xiàn)代AI擅長優(yōu)化-查找最短路徑,完美的定價最佳點或公司資源的最佳分配。但是,在很多情況下,人們也會意識到做出類似決定的情況,這是盲目的,特別是在道德方面。

例如,大多數(shù)人意識到,在健康危機期間提高藥品價格會增加利潤,但從道德上講也是沒有道理的。但是,人工智能沒有道德感,因此,如果負責定價策略,這似乎是一種有前途的方法。

實際上,在英國皇家學(xué)會開放科學(xué)的最新論文中,研究人員表明,負責回報最大化的AI實際上在相當普遍的條件下選擇不道德策略的比例不成比例。幸運的是,他們還表明可以預(yù)測發(fā)生這種情況的情況,這可以指導(dǎo)人們?yōu)楸苊膺@種情況而修改AI的努力。

人工智能很可能會選擇不道德的策略這一事實似乎很直觀。如果您不采取行動,有許多不道德的商業(yè)慣例會獲得豐厚的回報,尤其是因為很少有競爭對手敢于使用它們。盡管存在聲譽和監(jiān)管方面的強烈反對,但公司經(jīng)常彎腰甚至違反規(guī)則是有原因的。

但是,那些潛在的影響應(yīng)該是部署AI解決方案的公司所關(guān)注的。雖然已經(jīng)在努力將道德原則納入AI,但它們是新生的,在許多情況下,有許多潛在的策略可供選擇。通常,這些系統(tǒng)在很少或沒有人工干預(yù)的情況下進行決策,因此很難預(yù)測可能選擇不道德方法的環(huán)境。

實際上,該論文的作者已經(jīng)從數(shù)學(xué)上證明了,旨在最大化回報的AI極有可能選擇一種不道德的策略,這被他們稱為“不道德的優(yōu)化原理”。幸運的是,他們說風(fēng)險管理人員或監(jiān)管者有可能評估該原則的影響,以幫助發(fā)現(xiàn)潛在的不道德策略。

關(guān)鍵在于將重點放在可能提供最大回報的策略上,因為這些都是優(yōu)化過程可能會采用的策略。作者建議根據(jù)回報來對策略進行排名,然后手動檢查排名最高的策略,以確定它們是否合乎道德。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。