您的位置: 首頁 >互聯(lián)網(wǎng) >

IBMResearch發(fā)布了可解釋的AI工具包

2022-09-14 12:54:42 編輯:龐春蕊 來源:
導(dǎo)讀 IBM Research今天推出了AI解釋360,這是一個開源的集合,使用一系列技術(shù)來解釋AI模型決策。在IBM一年前發(fā)布了AI公平360,用于檢測和緩解人...

IBM Research今天推出了AI解釋360,這是一個開源的集合,使用一系列技術(shù)來解釋AI模型決策。

在IBM一年前發(fā)布了AI公平360,用于檢測和緩解人工智能模型中的偏差。

IBM研究人員和負(fù)責(zé)AI的領(lǐng)導(dǎo)薩斯卡·莫伊西洛維奇在電話采訪中對Venture Beat說,IBM正在分享其最新的工具包,以增加對人工智能的信任和驗證,并幫助必須遵守法規(guī)的企業(yè)使用人工智能。

“這從根本上說很重要,因為我們知道組織中的人不會使用或部署人工智能技術(shù),除非他們真正相信自己的決定。 而且,因為我們?yōu)檫@個世界的一個很好的部分創(chuàng)造了基礎(chǔ)設(shè)施,這對我們來說是至關(guān)重要的-不是因為我們自己內(nèi)部部署了人工智能或我們可能在這個空間中擁有的產(chǎn)品,而是創(chuàng)造這些能力是至關(guān)重要的,因為我們的客戶和世界將利用它們。

莫伊西洛維奇(Mojsilovic)表示,該工具包也正在共享,因為在創(chuàng)造值得信賴的人工智能方面,業(yè)界的進(jìn)展“非常緩慢”。

人工智能解釋360借鑒了IBM研究小組成員的算法和論文。 來源材料包括“TED:教人工智能解釋其決定”,這是一篇被接受在AAAI/ACM關(guān)于人工智能、倫理和社會的會議上發(fā)表的論文,以及經(jīng)常被引用的“用自表達(dá)神經(jīng)網(wǎng)絡(luò)實現(xiàn)穩(wěn)健的可解釋性”,被接受在NeurIPS2018年出版。

該工具包采用了許多不同的方法來解釋結(jié)果,例如可對比的解釋,一種試圖解釋重要缺失信息的算法。

還針對特定的場景制定了算法,例如用于解釋原型的Protodash,以及旨在向最近被拒絕貸款的消費者解釋信用評分模型結(jié)果的算法,或者向需要解釋AI模型決策以遵守法律的貸款官員解釋..

工具包中的所有八種算法都來自IBM Research,但更多來自更廣泛的人工智能社區(qū)將在未來添加。

莫伊西洛維奇說:“不是一個研究團(tuán)隊或一個組織可以移動針頭;當(dāng)我們聯(lián)合起來一起做這件事時,我們都會受益,這就是為什么我們打算種植工具箱。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。