2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
人工智能經(jīng)常被提及的挑戰(zhàn)之一是無(wú)法獲得關(guān)于人工智能系統(tǒng)如何做出決策的充分理解的解釋。盡管這對(duì)于機(jī)器學(xué)習(xí)應(yīng)用程序(例如產(chǎn)品推薦或個(gè)性化方案)而言可能不是挑戰(zhàn),但在需要理解決策的關(guān)鍵應(yīng)用程序中使用AI都會(huì)面臨透明性和可解釋性問題。
斯坦福大學(xué)計(jì)算機(jī)科學(xué)系戰(zhàn)略研究計(jì)劃主任史蒂夫·埃格拉什(Steve Eglash)在AI Today播客的一集中,分享了有關(guān)透明和負(fù)責(zé)任的AI演變的見解和研究。Eglash教授是計(jì)算機(jī)科學(xué)系的一名工作人員,他與一小群人一起開展研究計(jì)劃,與大學(xué)以外的公司合作。這個(gè)小組幫助公司與學(xué)生共享觀點(diǎn)和技術(shù),與公司共享技術(shù)。在史丹佛工作之前,史蒂夫是一名電氣工程師。在這個(gè)職位上,他介于技術(shù)和科學(xué)之間。在進(jìn)入學(xué)術(shù)界之前,他還曾從事過投資,政府,研究工作。
由于AI在幾乎每個(gè)行業(yè)和各級(jí)政府中都得到使用,因此深入研究AI用例的機(jī)會(huì)為斯坦福大學(xué)的學(xué)生提供了許多探索新領(lǐng)域的機(jī)會(huì)。充分了解AI的工作原理至關(guān)重要,因?yàn)槲覀冊(cè)絹碓揭蕾囉谒谝幌盗袘?yīng)用中的應(yīng)用。人工智能正在扮演關(guān)鍵任務(wù),例如自動(dòng)駕駛汽車。在這些情況下,錯(cuò)誤可能是致命的或?qū)е聡?yán)重的傷害或傷害。因此,更深入地研究透明和可解釋的AI系統(tǒng)可以使這些系統(tǒng)更加值得信賴和可靠。確保自動(dòng)駕駛汽車等AI技術(shù)的安全至關(guān)重要。因此,我們需要能夠理解計(jì)算機(jī)如何以及為何做出決定。與此同時(shí),
許多現(xiàn)代的AI系統(tǒng)都在神經(jīng)網(wǎng)絡(luò)上運(yùn)行,而我們僅了解其基礎(chǔ)知識(shí),因?yàn)樗惴ū旧砗苌偬峁┙忉尫绞?。缺乏解釋性通常被稱為AI系統(tǒng)的“黑匣子”。一些研究人員將注意力集中在神經(jīng)網(wǎng)絡(luò)如何工作的細(xì)節(jié)上。由于神經(jīng)網(wǎng)絡(luò)的規(guī)模,很難檢查它們的錯(cuò)誤,因?yàn)樯窠?jīng)元之間的每個(gè)連接及其權(quán)重都會(huì)增加復(fù)雜性,使事后檢查決策變得非常困難。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。