2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Salesforce正在其Trailhead開發(fā)人員教育平臺上創(chuàng)建模塊,用于負責任的人工智能。
人工智能,偏見和透明度已成為圍繞技術(shù)領(lǐng)域的熱門話題,因為眾多領(lǐng)先供應商都在解決這個問題。最大的擔憂是個別算法本身可能沒有偏見,但在與其他模型結(jié)合時獲取它。
Salesforce的道德AI實踐架構(gòu)師Kathy Baxter表示,Trailhead模塊旨在解決將與愛因斯坦合作并使用各種模型的員工,客戶和合作伙伴。
除了對Salesforce生態(tài)系統(tǒng)進行培訓之外,Trailhead模塊還可以將未來的功能信息構(gòu)建到愛因斯坦中,愛因斯坦已經(jīng)擁有一些內(nèi)置的AI反偏置工具,其中包括更多的飛行員。“我們正在努力幫助客戶了解模型中的內(nèi)容,解釋正在進行的工作并傳達工作原理,”Baxter說。
她補充說,Trailhead會有多個新增功能,專注于人工智能道德和防止偏見。
偏見是人工智能的一個重要概念,一些 學者呼吁更多的自治和監(jiān)管。此外,像IBM這樣的行業(yè)參與者已經(jīng)推動了更多的透明度和 一層軟件來監(jiān)控算法,以了解它們?nèi)绾螀f(xié)同工作以產(chǎn)生偏差。同時,企業(yè)正在努力尋求 可解釋的人工智能。谷歌表示,它將通過名為TCAV的技術(shù)解決人工智能,機器學習模式的偏見。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。