2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
使AI驅動的模型透明化是一個挑戰(zhàn)。它們是一個黑匣子,可能會導致嚴重的問題。玻璃箱的目的是為模型的運行方式以及輸出達到的方式提供更大的透明度。
當今問題的復雜性意味著現代企業(yè)越來越依賴人工智能。數據科學家正在從到醫(yī)療保健的所有領域中使用AI驅動的模型來解決現實世界中的問題。但是,由于構建模型的復雜性可以在一分鐘內測試數百萬個假設,因此使這些模型透明是一個挑戰(zhàn)。他們是一個黑匣子。
結果,當非數據科學家訪問這些模型時,他們對如何達到輸出的了解非常有限,這可能導致將其視為福音。由于各種實詞原因,輸出實際上可能更糟糕。由于個人無法解釋此類模型的意外偏見和不準確之處,因此產生了嚴重后果。
而且,由于數據科學主要是技術領域,即使是受過廣泛培訓的人員也沒有能力考慮道德或道德問題,如何使用黑匣子的輸出。這就是“玻璃箱”的出現位置。
玻璃箱的目的是為模型的運行方式以及輸出達到的方式提供更大的透明度。如果我們看最簡單的模型(例如線性回歸),則可以完全了解變量,并且輸出應該是顯而易見的。這是玻璃箱。
但是,隨著模型復雜性的增加,保持這種可見性變得更加困難。如果我們看一個更復雜的示例(例如深度神經網絡),則幾乎不可能拆開數據。
簡單來說,模型中的變量越少,說明就越容易。但是,這是有代價的。更簡單的模型無法滿足更復雜模型的準確性;這可能導致有用的輸出減少。雖然這聽起來像是二進制文件,但實際上它實際上是一個滑動比例。數據科學家將需要決定在Glassbox和Blackbox之間劃界的地方,并確定哪種更適合他們的個人用例。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。