2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。
來自DeepMind、大學學院和哈佛大學的一組研究人員發(fā)現,將學習技術應用于人工智能系統(tǒng)的經驗教訓可能有助于解釋獎勵途徑在大腦中是如何工作的。在他們發(fā)表在《自然》雜志上的論文中,該小組描述了將計算機中的分布強化學習與小鼠大腦中的多巴胺處理進行比較,以及他們從中學到了什么。
先前的研究表明,大腦中產生的多巴胺參與了獎勵過程-當好事發(fā)生時,它就會產生,它的表達會產生愉悅的感覺。一些研究還表明,大腦中對多巴胺的存在作出反應的神經元都以同樣的方式作出反應-一個事件會導致一個人或一只老鼠感覺好或壞。其他研究表明,神經元的反應更多的是一個梯度。在這一新的努力中,研究人員發(fā)現了支持后者理論的證據。
分布強化學習是一種基于強化的機器學習。它經常用于設計游戲,如星際爭霸II或圍棋。它跟蹤好的動作和壞的動作,并學會減少壞的動作的數量,提高它的性能越多。但是,這樣的系統(tǒng)并不是把所有好的和壞的移動都處理在一起-每個移動都是加權的,因為它是記錄的,權重是在作出未來移動選擇時使用的計算的一部分。
研究人員指出,人類似乎也使用類似的策略來提高他們的游戲水平。倫敦的研究人員懷疑人工智能系統(tǒng)和大腦進行獎勵處理的方式之間的相似之處可能也是相似的。為了找出他們是否正確,他們對老鼠進行了實驗。他們將能夠記錄單個多巴胺神經元反應的裝置插入他們的大腦。然后,老鼠被訓練來執(zhí)行一項任務,在這項任務中,他們得到了以期望的方式作出反應的獎勵。
小鼠神經元的反應表明,它們的反應并不像先前的理論所預測的那樣。相反,他們以不同的方式做出了可靠的反應-這表明,正如研究小組所預測的那樣,老鼠所體驗的快樂程度更像是一個梯度。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。