2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Azure機器學(xué)習(xí)自動跟蹤數(shù)據(jù)集的沿襲,因此客戶可以在注冊表中維護其機器學(xué)習(xí)資產(chǎn)的審核跟蹤,包括歷史記錄,培訓(xùn)和模型說明。這為數(shù)據(jù)科學(xué)家,機器學(xué)習(xí)工程師和開發(fā)人員提供了工作流程中更高的可見性和可審核性。
在會議期間,Microsoft提供了有關(guān)如何使用Azure機器學(xué)習(xí)中的自定義標簽來實現(xiàn)機器學(xué)習(xí)模型的數(shù)據(jù)表的指南,從而使客戶能夠改善其數(shù)據(jù)集的文檔和元數(shù)據(jù)。自定義標簽基于Microsoft與AI合作伙伴關(guān)系及其對機器學(xué)習(xí)生命周期的理解和透明度的注釋和基準(About ML)項目,該項目旨在提高機器學(xué)習(xí)系統(tǒng)文檔的透明度和問責(zé)制。
Microsoft的另一個重點領(lǐng)域是可以更好地理解機器學(xué)習(xí)模型并評估和減輕數(shù)據(jù)不公平性的工具。在過去的幾個月中,它一直在大力投資用于模型不公平和可解釋性的工具。這些領(lǐng)域?qū)τ谀壳暗臋C器學(xué)習(xí)從業(yè)者來說尤其重要。
在2019年,微軟發(fā)布了Fairlearn,這是一個開放源代碼工具包,用于評估機器學(xué)習(xí)模型的公平性。在今年的Build上,Microsoft宣布它將在6月將工具包本地集成到Azure機器學(xué)習(xí)中。
Fairlearn工具包提供了多達15個“公平性指標”,可用于評估和重新訓(xùn)練模型。它還提供了可視化的儀表板,以向從業(yè)者展示該模型在針對客戶選擇的某些群體(例如年齡,性別或種族)方面的表現(xiàn)。Microsoft計劃隨著該領(lǐng)域的研究進展而增加這些功能。
它還正在使用稱為InterpretML的工具解決可解釋的人工智能(AI),該工具提供了一組交互式儀表板,這些儀表板使用各種技術(shù)來提供模型可解釋性。對于不同類型的模型,InterpretML可幫助從業(yè)人員更好地理解確定模型輸出的最重要功能,執(zhí)行“假設(shè)分析”并探索數(shù)據(jù)趨勢。
微軟還宣布,它將為工具集添加一個新的用戶界面,該界面配備了一組可視化功能以實現(xiàn)可解釋性,對基于文本的分類的支持以及反事實示例分析。
可視化客戶的可解釋性
這些關(guān)鍵領(lǐng)域在AI中的新興性質(zhì)使一些早期企業(yè)難以理解技術(shù)在實踐中的工作方式,尤其是對他們的客戶而言。
Microsoft在這方面做了很多視覺上的改進,特別是對于數(shù)據(jù)科學(xué)家和機器學(xué)習(xí)工程師。在InterpretML的演示中,微軟展示了零售商如何在行動中運用可解釋性,例如在其網(wǎng)站上支持其針對消費者的AI驅(qū)動產(chǎn)品推薦。建立客戶之間對AI的透明度和信任度是目前該技術(shù)面臨的最大障礙之一。
實際上,對技術(shù)的信任(或缺乏信任)已成為企業(yè)采用機器學(xué)習(xí)的最大障礙。在2019年的CCS Insight調(diào)查中,有39%的IT決策者將信任視為采用組織的最大障礙。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。