2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Clova AI Research,NAVER和LINE的研究人員最近提出了一個名為AQM +的新框架,它允許對話系統(tǒng)生成與上下文相關(guān)的問題和答案。他們的模型在arXiv預(yù)先發(fā)表的論文中概述,將在新奧爾良舉行的第七屆學習代表國際會議(ICLR 2019)上發(fā)表。
“機器人和人機協(xié)作被認為是一個重要而有意義的研究課題,特別是從人工智能的道德和公眾利益的角度來看,”進行這項研究的研究人員之一Sang-Woo Lee說道,告訴TechXplore。“專注于面向任務(wù)的對話(TOD),研究人員從人類與AlphaGo之間的GO游戲中獲得了相當多的洞察力。更具體地說,這些研究人員認為通過訓練大型機器 - 機器交互模型可以改善面向目標的對話模型允許AlphaGo擊敗人類專家。但是,我并不完全同意這個想法,因為對話是一項基于兩個玩家之間合作的任務(wù),與Go是一個根本不同的競爭游戲。
根據(jù)Lee的說法,任務(wù)導向?qū)υ?TOD)類似于游戲20個問題,因為對話系統(tǒng)的目標應(yīng)該是縮小用戶的意圖和請求。在之前的一項研究中,Lee及其同事介紹了一個面向任務(wù)的對話系統(tǒng)的框架,該框架稱為“提問者心中的回答者”(AQM),它基于這個想法。AQM允許對話系統(tǒng)提出最大化其信息增益的問題,從而減少用戶意圖的不確定性。
與其他方法不同,AQM明確計算后驗分布并通過分析找到解。盡管有許多優(yōu)點,但發(fā)現(xiàn)AQM在現(xiàn)實世界的任務(wù)中概括不足,其中對象,問題和答案的數(shù)量通常不受限制。
在他們最近的研究中,研究人員解決了這一局限,并提出了一種新的方法,即AQM +。與之前的方法不同,AQM +可以應(yīng)用于大規(guī)模問題,生成與給定對話框的變化上下文更一致的問題和答案。
“類似于人類對話,我們的AQM +模擬了對手所說的內(nèi)容,并使用信息理論指標(信息增益)來理解掌握對手思想和意圖的最有效策略,”Lee解釋道。“這種方法不同于先前基于神經(jīng)網(wǎng)絡(luò)的TOD方法,它主要采用序列到序列(Seq2Seq)通過響應(yīng)先前的話語直接產(chǎn)生問題。”
Lee和他的同事評估了AQM +在一個具有挑戰(zhàn)性的面向任務(wù)的視覺對話問題,稱為GuessWhich。他們的模型取得了顯著的成果,在很大程度上超越了最先進的方法。
“在AQM +中基于我們的20個問題游戲的方法用于質(zhì)疑用戶可以解決復雜的對話情況,其中存在許多和各種答案以及與一般形成的問題相關(guān)的案例,以及是或否的問題,”Lee說。“這意味著我們的AQM +可以應(yīng)用于現(xiàn)實世界中不同的TOD情況。”
在他們的測試中,Lee和他的同事Jung-Woo Ha,Tong Gao,Sohee Yang和Jaejun Yoo發(fā)現(xiàn),隨著對話的進行,AQM +將錯誤減少了60%,而現(xiàn)有算法的誤差減少了不到6%。據(jù)研究人員稱,AQM +可用于生成開放和封閉的問題。
“從端到端方式有效地訓練對話數(shù)據(jù)模型仍然極具挑戰(zhàn)性,特別是對于TOD系統(tǒng)的開發(fā),”參與該研究的另一位研究員Jung-Woo Ha告訴TechXplore。“雖然AQM +主要側(cè)重于質(zhì)詢以從回答者那里獲得有用的信息,但它可以通過包括基于相同方法回答問題而自然地擴展。”
Lee,Ha和他們的同事們正在考慮未來研究的一些方向。首先,他們希望進一步發(fā)展他們的方法,以實現(xiàn)對話的一般學習框架。他們的最終目標是設(shè)計一個能夠在與人類交流時達到類似人類準確性的系統(tǒng)。
“最終,我們的目標是開發(fā)一個通用的AI框架,支持類似人類的機器 - 機器和人機對話,”Ha說。“作為工業(yè)研究科學家,我們將把我們的技術(shù)應(yīng)用于各種服務(wù),如信使和AI助手平臺,從而為全球用戶提供更大的價值。”
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。