您的位置: 首頁 >互聯(lián)網(wǎng) >

微軟推出了一款名為WhiteNoise的人工智能隱私工具

2022-09-13 05:08:02 編輯:聶育奇 來源:
導(dǎo)讀 在本周舉行的Build 2020開發(fā)者大會(huì)(Build 2020 developer conference)上,微軟宣布向Azure機(jī)器學(xué)習(xí)(Azure Machine Learning)添加新功...

在本周舉行的Build 2020開發(fā)者大會(huì)(Build 2020 developer conference)上,微軟宣布向Azure機(jī)器學(xué)習(xí)(Azure Machine Learning)添加新功能。Azure機(jī)器學(xué)習(xí)是一種基于云的環(huán)境,用于培訓(xùn)、部署和管理人工智能模型。WhiteNoise是一個(gè)針對(duì)不同隱私的工具包,現(xiàn)在既可以在Azure上使用,也可以在GitHub的開源平臺(tái)上使用,加入了新的人工智能解釋和公平工具,以及新的數(shù)據(jù)、模型和實(shí)驗(yàn)訪問控制;用于細(xì)粒度追溯和沿襲的新技術(shù);新的機(jī)密機(jī)器學(xué)習(xí)產(chǎn)品;和新的工作流程責(zé)任文檔。

這一努力是微軟朝著更易于解釋、更安全、更“公平”的人工智能系統(tǒng)努力的一部分。研究表明,面部識(shí)別系統(tǒng)存在普遍的偏見,例如,人工智能存在隱私問題,因?yàn)樵S多模型無法使用加密數(shù)據(jù)。除了今天發(fā)布的Azure機(jī)器學(xué)習(xí)特性之外,微軟還嘗試著解決這些問題和其他挑戰(zhàn),包括人工智能偏見檢測工具、減少偏見錯(cuò)誤的內(nèi)部努力、人工智能道德檢查列表,以及一個(gè)就人工智能追求提供建議的委員會(huì)(Aether)。另外,微軟公司副總裁埃里克·博伊德表示,Xbox、必應(yīng)、Azure以及微軟365部門的團(tuán)隊(duì)都參與了今天上午發(fā)布的一些工具包的開發(fā),并親自使用了這些工具包。

“企業(yè)現(xiàn)在正在研究如何開發(fā)易于解釋和遵守規(guī)定(例如非歧視和隱私規(guī)定)的人工智能應(yīng)用程序。”博伊德在接受VentureBeat電話采訪時(shí)表示:“他們需要與這些人工智能模型相結(jié)合的工具,以便更容易地解釋、理解、保護(hù)和控制數(shù)據(jù)和模型。”“我們認(rèn)為,我們的人工智能方法是有區(qū)別的,它建立在深入研究的堅(jiān)實(shí)基礎(chǔ)上,采用經(jīng)過深思熟慮的方法,并致力于開源。”

WhiteNoise工具包是與哈佛大學(xué)定量社會(huì)科學(xué)和工程學(xué)院(Harvard Institute for Quantitative Social Science and School of Engineering)的研究人員合作開發(fā)的,它利用了不同的隱私,使人們能夠在保護(hù)個(gè)人信息(如姓名或出生日期)的同時(shí),從數(shù)據(jù)中獲得見解。通常,差異隱私需要在將原始數(shù)據(jù)輸入本地機(jī)器學(xué)習(xí)模型之前向其注入少量噪聲,從而使惡意行為者難以從經(jīng)過訓(xùn)練的模型中提取原始文件。如果一個(gè)觀察者看到一個(gè)算法的輸出,卻不知道它是否在計(jì)算中使用了某個(gè)特定個(gè)體的信息,那么這個(gè)算法就可以被認(rèn)為是差分私有的。

WhiteNoise提供一個(gè)可擴(kuò)展圖書館不同私人算法和釋放機(jī)制保護(hù)隱私的查詢和統(tǒng)計(jì),以及api定義的分析和評(píng)估分析和驗(yàn)證器計(jì)算總損失數(shù)據(jù)隱私。微軟說它可以使一群醫(yī)院合作建立一個(gè)更好的預(yù)測模型在癌癥治療的療效,例如,同時(shí)幫助堅(jiān)持法律要求,保護(hù)醫(yī)院信息的隱私,確保沒有個(gè)別患者數(shù)據(jù)從模型中泄露出來。

另一個(gè)由微軟人工智能和工程研究倫理委員會(huì)(Aether)支持的工具包Fairlearn,將于6月與Azure機(jī)器學(xué)習(xí)集成,旨在評(píng)估人工智能系統(tǒng)的公平性,并減輕算法中出現(xiàn)的任何不公平問題。在儀表板中,F(xiàn)airlearn定義了人工智能系統(tǒng)是否對(duì)人做出不公平的行為,主要關(guān)注兩種危害:分配危害和服務(wù)質(zhì)量危害。當(dāng)人工智能系統(tǒng)擴(kuò)展或保留機(jī)會(huì)、資源或信息時(shí),分配就會(huì)受到損害——例如,在招聘、學(xué)校錄取和貸款方面。服務(wù)質(zhì)量危害是指一個(gè)系統(tǒng)對(duì)一個(gè)人是否像對(duì)另一個(gè)人一樣有效,即使沒有機(jī)會(huì)、資源或信息被延長或保留。

Fairlearn遵循一種被稱為“群體公平”的方法,該方法旨在發(fā)現(xiàn)哪些群體的個(gè)體有遭受傷害的風(fēng)險(xiǎn)。數(shù)據(jù)科學(xué)家指定工具包中的相關(guān)組(例如,性別、膚色和種族),它們是特定于應(yīng)用程序的;群體公平是通過一組約束來形式化的,它要求人工智能系統(tǒng)的某些方面(或多個(gè)方面)的行為在群體之間具有可比性。

根據(jù)微軟的說法,專業(yè)服務(wù)公司安永;Young使用Fairlearn來評(píng)估模型輸出在生物性別方面的公平性。該工具包顯示,男性和女性的積極貸款決策之間存在15.3%的差異。Young的建模團(tuán)隊(duì)隨后開發(fā)并培訓(xùn)了多個(gè)矯正模型,并可視化了公平性和模型準(zhǔn)確性之間的常見權(quán)衡。該團(tuán)隊(duì)最終得到了一個(gè)最終的模型,該模型優(yōu)化并保留了總體精度,但將男性和女性之間的差異降低到了0.43%。

在新工具包的列表中,最后一個(gè)是釋義ml,它去年在alpha中首次出現(xiàn),但是今天在Azure機(jī)器學(xué)習(xí)中也可以使用。expltml合并了許多機(jī)器學(xué)習(xí)解釋技術(shù),幫助通過可視化模型的行為和預(yù)測背后的推理來解釋。它可以推薦在任何給定用例中對(duì)模型最重要的參數(shù)(或變量),并且可以解釋為什么這些參數(shù)很重要。

博伊德說:“我們希望通過Azure機(jī)器學(xué)習(xí)向廣大客戶提供這一服務(wù),幫助他們理解和解釋他們的模型所發(fā)生的事情。””(這些工具包),我們認(rèn)為我們已經(jīng)給了開發(fā)人員大量的權(quán)力真正理解他們的模型,他們可以看到他們的可解釋性[和]公平,并開始理解其他參數(shù)不滿意做出預(yù)測或搖擺的模型以不同的方式。”


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。