您的位置: 首頁 >科技 >

這是AI的頂級(jí)研究人員認(rèn)為人工智能將會(huì)實(shí)現(xiàn)的時(shí)候

2019-04-29 17:29:11 編輯: 來源:
導(dǎo)讀 人工智能學(xué)科的核心是有一天我們能夠建造一個(gè)像人類一樣聰明的機(jī)器。這種系統(tǒng)通常被稱為人工通用智能系統(tǒng),即AGI,它是將概念與更廣泛的研

人工智能學(xué)科的核心是有一天我們能夠建造一個(gè)像人類一樣聰明的機(jī)器。這種系統(tǒng)通常被稱為人工通用智能系統(tǒng),即AGI,它是將概念與更廣泛的研究領(lǐng)域區(qū)分開來的名稱。它還清楚地表明,真正的人工智能擁有廣泛且適應(yīng)性強(qiáng)的智能。到目前為止,我們已經(jīng)建立了無數(shù)系統(tǒng),這些系統(tǒng)在特定任務(wù)中都是超人,但在一般腦力方面,沒有一個(gè)能夠與老鼠相匹敵。

但是,盡管這個(gè)想法在人工智能領(lǐng)域具有中心地位,但研究人員對(duì)于何時(shí)可以實(shí)現(xiàn)這一壯舉幾乎沒有一致意見。

在本周出版的一本名為“智力建筑師”的新書中,作家和未來學(xué)家馬丁·福特采訪了今天在AI工作的23位最杰出的男性和女性,其中包括DeepMind首席執(zhí)行官Demis Hassabis,Google AI首席Jeff Dean和斯坦福AI導(dǎo)演Fei - 李飛 在一項(xiàng)非正式調(diào)查中,福特要求他們每個(gè)人猜測(cè)哪一年將至少有50%的機(jī)會(huì)建立AGI。

福特采訪的23人中,只有18人回答,其中只有兩人記錄在案。有趣的是,這兩個(gè)人提供了最極端的答案:谷歌的未來學(xué)家兼工程總監(jiān)Ray Kurzweil建議,到2029年,AGI將有50%的可能性建成,Rodney Brooks,機(jī)器人和聯(lián)合創(chuàng)始人iRobot,去了2200.其余猜測(cè)分散在這兩個(gè)極端之間,平均估計(jì)是從現(xiàn)在開始的2099 - 81年。

換句話說:AGI是一個(gè)舒適的距離,雖然你可能活著看到它發(fā)生。

AGI意味著具有廣泛智能的AI,但我們?nèi)鄙俸芏嚓P(guān)鍵組件來實(shí)現(xiàn)它。 攝影:Matt Winkelmeyer / Getty Images為WIRED25拍攝

這與人工智能研究人員關(guān)于這一主題的第一次調(diào)查相差甚遠(yuǎn),但它提供了一個(gè)罕見的精英觀點(diǎn)快照,目前正在重塑世界。福特說,他對(duì)The Verge說,特別有趣的是,他所收集的估計(jì)偏向更長(zhǎng)的時(shí)間框架,而不是早期的調(diào)查,這些調(diào)查往往接近 30年。

福特說:“我認(rèn)為你的態(tài)度和你的年輕程度之間可能存在著大致的相關(guān)性,”他指出,他所談到的幾位研究人員都是70多歲,經(jīng)歷過這個(gè)領(lǐng)域的起伏。“一旦你開展了數(shù)十年和數(shù)十年的研究,也許你的確會(huì)變得更加悲觀。”

福特說,他的采訪也揭示了專家意見中的一個(gè)有趣的分歧 - 不是關(guān)于什么時(shí)候可能建立AGI,而是使用現(xiàn)有方法是否甚至可能。

福特的一些研究人員說,我們擁有大多數(shù)基本工具,建立AGI只需要時(shí)間和精力。其他人說我們?nèi)匀蝗鄙賹?shí)現(xiàn)這一目標(biāo)所需的大量基本突破。值得注意的是,福特說,研究人員的工作基于深度學(xué)習(xí)(人工智能的子領(lǐng)域,這推動(dòng)了最近的繁榮),他們傾向于認(rèn)為未來的進(jìn)步將使用神經(jīng)網(wǎng)絡(luò),即當(dāng)代人工智能的主力。具有人工智能其他部分背景的人認(rèn)為,建立AGI需要其他方法,如符號(hào)邏輯。無論哪種方式,都存在相當(dāng)多的禮貌分歧。

福特說:“深度學(xué)習(xí)營中的一些人非常貶低試圖在人工智能中直接設(shè)計(jì)常識(shí)。” “他們認(rèn)為這是一個(gè)愚蠢的想法。其中一人說這就像是試圖將一些信息直接粘貼到大腦中。“

所有福特的受訪者都注意到了當(dāng)前人工智能系統(tǒng)的局限性,并提到了他們尚未掌握的關(guān)鍵技能。這些包括轉(zhuǎn)移學(xué)習(xí),其中一個(gè)領(lǐng)域的知識(shí)應(yīng)用于另一個(gè)領(lǐng)域,以及無監(jiān)督學(xué)習(xí),其中系統(tǒng)在沒有人類指導(dǎo)的情況下學(xué)習(xí)。(絕大多數(shù)機(jī)器學(xué)習(xí)方法目前都依賴于人類標(biāo)記的數(shù)據(jù),這是發(fā)展的嚴(yán)重瓶頸。)

受訪者還強(qiáng)調(diào),在人工智能這樣的領(lǐng)域進(jìn)行預(yù)測(cè)是絕對(duì)不可能的,因?yàn)槿斯ぶ悄茴I(lǐng)域的研究已進(jìn)入適應(yīng)期,并且關(guān)鍵技術(shù)在首次發(fā)現(xiàn)后幾十年才達(dá)到其全部潛力。

加州大學(xué)伯克利分校的教授斯圖爾特羅素寫了一篇關(guān)于人工智能的基礎(chǔ)教科書,他說創(chuàng)建AGI所需的那些突破“與更大的數(shù)據(jù)集或更快的機(jī)器無關(guān)”,所以他們不能很容易繪制出來。

“我總是講述核物理學(xué)中發(fā)生的事情的故事,”拉塞爾在接受采訪時(shí)說。“歐內(nèi)斯特盧瑟福在1933年9月11日表達(dá)的共識(shí)觀點(diǎn)是,永遠(yuǎn)不可能從原子中提取原子能。因此,他的預(yù)測(cè)是“永遠(yuǎn)不會(huì)”,但事實(shí)證明是第二天早上Leo Szilard閱讀了盧瑟福的講話,對(duì)此感到厭煩,并發(fā)明了由中子介導(dǎo)的核鏈?zhǔn)椒磻?yīng)!盧瑟福的預(yù)測(cè)是“從不”,事實(shí)是大約16個(gè)小時(shí)后。以類似的方式,對(duì)于我對(duì)AGI的這些突破何時(shí)到來進(jìn)行定量預(yù)測(cè)感到非常徒勞。“

福特表示,這種基本的不可知性可能是他與之交談的人不愿意將他們的名字放在猜測(cè)旁邊的原因之一。“那些確實(shí)選擇較短時(shí)間框架的人可能會(huì)擔(dān)心被拘留,”他說。

許多研究人員表示,經(jīng)濟(jì)問題比超級(jí)智能的威脅更為緊迫。 攝影:Bill Pugliano / Getty Images

關(guān)于AGI構(gòu)成的危險(xiǎn)的意見也不一。牛津大學(xué)哲學(xué)家,超級(jí)智能 (Elon Musk's的最愛)一書的作者尼克博斯特羅姆是一個(gè)有強(qiáng)烈言論可以說明潛在危險(xiǎn)的人,他說人工智能比氣候變化對(duì)人類的存在更具威脅。他和其他人說,這個(gè)領(lǐng)域最大的問題之一就是價(jià)值調(diào)整 - 教導(dǎo)AGI系統(tǒng)具有與人類相同的價(jià)值(著名的“ 回形針問題 ”)。

“關(guān)注的不是[AGI]會(huì)因?yàn)榕鬯憛捇蛟购尬覀儯蛘咄蝗怀霈F(xiàn)意識(shí)的火花并且它會(huì)反叛,”博斯特羅姆說,“但是它會(huì)非常有力地追求一個(gè)不同的目標(biāo)。從我們真正想要的。“

大多數(shù)受訪者表示,與經(jīng)濟(jì)破壞和戰(zhàn)爭(zhēng)中使用先進(jìn)自動(dòng)化等問題相比,存在威脅問題極為遙遠(yuǎn)。哈佛大學(xué)人工智能教授芭芭拉·格羅茲(Barbara Grosz)為語言處理領(lǐng)域做出了開創(chuàng)性貢獻(xiàn),他表示,AGI道德問題主要是“分散注意力”。“真正的一點(diǎn)是,我們現(xiàn)在有許多道德問題,我們通過人工智能系統(tǒng)有,“格羅茲說。“我認(rèn)為由于可怕的未來主義情景而分散注意力是不幸的。”

福特說,這種來回可能是智能建筑師最重要的一點(diǎn):在像人工智能那樣復(fù)雜的領(lǐng)域里,確實(shí)沒有簡(jiǎn)單的答案。即使是最精英的科學(xué)家也不同意世界面臨的基本問題和挑戰(zhàn)。

福特說:“人們沒有得到的主要外賣是多少分歧。” “整個(gè)領(lǐng)域都是如此難以預(yù)測(cè)。人們不同意它的移動(dòng)速度,下一個(gè)突破將是什么,我們將多快到達(dá)AGI,或者最重要的風(fēng)險(xiǎn)是什么。

那么我們能堅(jiān)持什么樣的真理呢?福特說,只有一個(gè)。無論AI接下來會(huì)發(fā)生什么,“這將是非常具有破壞性的。”


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。