您的位置: 首頁(yè) >科技 >

人工智能中不可避免的自我改善問(wèn)題

2022-09-09 18:26:51 編輯:卓嬌言 來(lái)源:
導(dǎo)讀 今天的人工智能系統(tǒng)可能看起來(lái)像是能夠在各種任務(wù)中擊敗人類(lèi)同行的智力強(qiáng)者。然而,事實(shí)上,當(dāng)今最先進(jìn)的AI代理商的智力能力是狹隘和有限的...

今天的人工智能系統(tǒng)可能看起來(lái)像是能夠在各種任務(wù)中擊敗人類(lèi)同行的智力強(qiáng)者。然而,事實(shí)上,當(dāng)今最先進(jìn)的AI代理商的智力能力是狹隘和有限的。以AlphaGo為例。雖然它可能是棋盤(pán)游戲Go的世界冠軍,但這基本上是系統(tǒng)擅長(zhǎng)的唯一任務(wù)。

當(dāng)然,還有AlphaZero。該算法掌握了許多不同的游戲,從和國(guó)際象棋到Go。因此,它比許多當(dāng)代AI代理商更有能力和動(dòng)態(tài);但是,AlphaZero無(wú)法輕松將其智能應(yīng)用于任何問(wèn)題。它不能像人類(lèi)一樣從一個(gè)任務(wù)移動(dòng)到另一個(gè)任務(wù)。

所有其他當(dāng)前的人工智能系統(tǒng)都可以說(shuō)同樣的事情 - 他們的認(rèn)知能力是有限的,并沒(méi)有超出他們創(chuàng)建的具體任務(wù)。這就是為什么人工智能(AGI)是許多研究人員的長(zhǎng)期目標(biāo)的原因。

AGI系統(tǒng)被廣泛認(rèn)為是人工智能研究的“圣杯”,是具有廣泛解決問(wèn)題能力的人工智能代理,使他們能夠應(yīng)對(duì)在設(shè)計(jì)階段未考慮的挑戰(zhàn)。與專(zhuān)注于一項(xiàng)特定技能的傳統(tǒng)AI系統(tǒng)不同,AGI系統(tǒng)能夠有效地解決他們遇到的任何問(wèn)題,完成各種任務(wù)。

如果技術(shù)得以實(shí)現(xiàn),它將以無(wú)數(shù)種方式使人類(lèi)受益。斯坦福大學(xué)(Stanford University)經(jīng)濟(jì)學(xué)家馬歇爾•伯克(Marshall Burke)預(yù)測(cè),AGI系統(tǒng)最終將能夠建立大規(guī)模的協(xié)調(diào)機(jī)制,以幫助緩解(甚至消除)我們最緊迫的一些問(wèn)題,如饑餓和貧困。然而,在社會(huì)能夠從這些AGI系統(tǒng)中獲益之前,DeepMind的AGI安全研究員Ramana Kumar指出,AI設(shè)計(jì)師最終需要解決自我改善問(wèn)題。

自我改善符合AGI

在當(dāng)前的AI系統(tǒng)中已經(jīng)存在早期的自我改進(jìn)形式。“在正常的機(jī)器學(xué)習(xí)過(guò)程中會(huì)發(fā)生一種自我改善,”庫(kù)馬爾解釋說(shuō)。“即,該系統(tǒng)在其培訓(xùn)過(guò)程中能夠很好地執(zhí)行任務(wù)或一系列任務(wù)。”

然而,Kumar斷言他會(huì)將這種形式的機(jī)器學(xué)習(xí)與真正的自我改進(jìn)區(qū)分開(kāi)來(lái),因?yàn)橄到y(tǒng)無(wú)法從根本上改變自己的設(shè)計(jì),成為新的東西。為了實(shí)現(xiàn)顯著改進(jìn) - 包含新技能,工具或創(chuàng)建更高級(jí)AI代理的改進(jìn) - 當(dāng)前的AI系統(tǒng)需要人為他們提供新代碼和新的訓(xùn)練算法等。

然而,理論上可以創(chuàng)建一個(gè)能夠真正自我改進(jìn)的AI系統(tǒng),Kumar說(shuō)這種自我改進(jìn)的機(jī)器是AGI更合理的途徑之一。

研究人員認(rèn)為,自我改進(jìn)的機(jī)器最終可能導(dǎo)致AGI,因?yàn)檫@個(gè)過(guò)程被稱(chēng)為“遞歸自我改進(jìn)”?;舅枷胧?,隨著人工智能系統(tǒng)繼續(xù)使用遞歸自我改進(jìn)使自己變得更聰明,它會(huì)越來(lái)越好地使自己變得更聰明。這將迅速導(dǎo)致其智力的指數(shù)增長(zhǎng),并因此最終可能導(dǎo)致AGI。

庫(kù)馬爾說(shuō),這種情況完全合理,并解釋說(shuō),“為了實(shí)現(xiàn)這一目標(biāo),我們需要一些幾乎沒(méi)有爭(zhēng)議的假設(shè):理論上存在這種高度稱(chēng)職的代理人,并且可以通過(guò)一系列局部改進(jìn)找到它們。”在這種程度上,遞歸自我提升是一個(gè)概念,它是我們?nèi)绾螐慕裉斓闹械戎悄軝C(jī)器到超智能AGI的一些理論的核心。然而,庫(kù)馬爾澄清說(shuō),這不是AI超級(jí)智能的唯一潛在途徑。

人類(lèi)可以通過(guò)各種方法發(fā)現(xiàn)如何建立高度勝任的AGI系統(tǒng)。這可能是“通過(guò)擴(kuò)展現(xiàn)有的機(jī)器學(xué)習(xí)方法,例如,使用更快的硬件?;蛘呖梢酝ㄟ^(guò)在表征學(xué)習(xí),轉(zhuǎn)移學(xué)習(xí),基于模型的強(qiáng)化學(xué)習(xí)或其他方向上進(jìn)行漸進(jìn)的研究進(jìn)展來(lái)實(shí)現(xiàn)。例如,我們可能在腦部掃描和仿真方面取得足夠的進(jìn)展,以復(fù)制和加速特定人類(lèi)的智能,“Kumar解釋道。

然而,他也很快澄清遞歸自我改善是AGI的先天特征。“即使重復(fù)自我提高是沒(méi)有必要制定游刃有余的人工坐席放在首位,明確自我完善將仍然有可能對(duì)那些代理商,”庫(kù)馬爾說(shuō)。

因此,雖然研究人員可能會(huì)發(fā)現(xiàn)AGI的途徑不涉及遞歸的自我改善,但它仍然是需要認(rèn)真研究的人工智能的屬性。

自我改善AI的安全性

當(dāng)系統(tǒng)開(kāi)始自我修改時(shí),我們必須能夠相信所有修改都是安全的。這意味著我們需要了解所有可能的修改。但是,如果沒(méi)有人能夠提前預(yù)測(cè)修改是什么,我們?cè)鯓硬拍艽_保修改是安全的?

庫(kù)馬爾指出,這個(gè)問(wèn)題有兩個(gè)明顯的解決方案。第一種選擇是限制系統(tǒng)生產(chǎn)其他AI代理的能力。然而,正如庫(kù)馬爾簡(jiǎn)潔地總結(jié)的那樣,“我們不想通過(guò)禁止自我改善來(lái)解決安全的自我改善問(wèn)題!”

因此,第二種選擇是僅允許被認(rèn)為足夠安全的有限形式的自我改進(jìn),例如軟件更新或處理器和內(nèi)存升級(jí)。然而,庫(kù)馬爾解釋說(shuō),審查這些形式的自我改善是安全和不安全的仍然非常復(fù)雜。事實(shí)上,他說(shuō),防止一種特定類(lèi)型的修改的構(gòu)建是如此復(fù)雜,以至于“需要深入了解自我改進(jìn)所涉及的內(nèi)容,這可能足以解決完全安全的自我改善問(wèn)題”。

值得注意的是,即使新的進(jìn)步只允許有限形式的自我改善,庫(kù)馬爾也表示這不是一條可以采取的道路,因?yàn)樗乇芰宋覀兿胍鉀Q的自我改善的核心問(wèn)題。“我們希望建立一個(gè)可以建立另一個(gè)AI代理的代理,其代理能力如此之大,以至于我們無(wú)法提前直接推斷其安全性......我們希望委托一些關(guān)于安全的理由,并且能夠相信父母這種推理是否正確,“他斷言。

最終,這是一個(gè)極其復(fù)雜的問(wèn)題,仍處于最新生階段。因此,目前的大部分工作都集中在測(cè)試各種技術(shù)解決方案,并看到可以取得進(jìn)展的地方。“對(duì)于這些問(wèn)題,仍然存在很多概念上的混淆,因此一些最有用的工作涉及在各種環(huán)境中嘗試不同的概念,并觀察結(jié)果是否連貫,”Kumar解釋說(shuō)。

無(wú)論最終解決方案是什么,Kumar斷言成功克服自我改善的問(wèn)題取決于AI研究人員密切合作。“[測(cè)試這個(gè)問(wèn)題的解決方案]的關(guān)鍵是明確假設(shè),并且為了向其他人解釋?zhuān)鞔_與我們最終關(guān)心的現(xiàn)實(shí)世界安全AI問(wèn)題的聯(lián)系。”

在涉及人工智能時(shí),經(jīng)常會(huì)出現(xiàn)關(guān)于什么構(gòu)成“安全”和“不安全”行為的爭(zhēng)論。作為拉瑪納庫(kù)馬爾,在AGI安全研究員DeepMind,筆記,術(shù)語(yǔ)是主觀的,“只能相對(duì)于AI系統(tǒng)的使用者和受益者的值來(lái)定義。”

幸運(yùn)的是,在面對(duì)與創(chuàng)建安全AI代理相關(guān)的技術(shù)問(wèn)題時(shí),這些問(wèn)題大多可以回避,因?yàn)檫@些問(wèn)題與識(shí)別正確或道德適當(dāng)?shù)膯?wèn)題無(wú)關(guān)。相反,從技術(shù)角度來(lái)看,術(shù)語(yǔ)“安全”最好定義為一種AI代理,它始終采取導(dǎo)致預(yù)期結(jié)果的行動(dòng),而不管這些預(yù)期結(jié)果如何。

在這方面,Kumar解釋說(shuō),在創(chuàng)建一個(gè)負(fù)責(zé)改進(jìn)自身的AI代理時(shí),“構(gòu)建安全代理的技術(shù)問(wèn)題在很大程度上獨(dú)立于'安全'意味著什么,因?yàn)閱?wèn)題的很大一部分是如何建立一個(gè)能夠可靠地做某事的代理人,無(wú)論那是什么東西,以這種方式繼續(xù)工作,即使所考慮的代理人越來(lái)越有能力。“

簡(jiǎn)而言之,制作一個(gè)“安全”的AI代理商不應(yīng)該與制定“道德”AI代理商混為一談。各自的條款都在討論不同的事情。

一般而言,回避道德的安全定義使得AI技術(shù)工作變得更加容易它允許研究在道德問(wèn)題的辯論演變的同時(shí)推進(jìn)。例如,優(yōu)步的自動(dòng)駕駛汽車(chē)已經(jīng)上街,盡管我們尚未就是否應(yīng)該保護(hù)駕駛員或行人的框架達(dá)成一致。

然而,當(dāng)涉及到創(chuàng)建一個(gè)能夠自我改進(jìn)的強(qiáng)大而安全的AI系統(tǒng)時(shí),技術(shù)工作變得更加困難,并且該領(lǐng)域的研究仍處于最新生階段。這主要是因?yàn)槲覀儾恢惶幚硪粋€(gè)AI代理;我們正在處理幾代未來(lái)的自我改善代理人。

庫(kù)馬爾澄清說(shuō),“當(dāng)一個(gè)AI代理人自我提升時(shí),可以將情況視為涉及兩個(gè)代理人:'種子'或'父母'代理人和父母自我修改的'子代理人'......及其總數(shù)對(duì)世界的影響將包括其后代所采取的行動(dòng)的影響。“因此,為了知道我們已經(jīng)建立了一個(gè)安全的AI代理人,我們需要了解可能來(lái)自第一個(gè)代理人的所有可能的子代理人。

并且驗(yàn)證所有未來(lái)AI代理商的安全性歸結(jié)為解決稱(chēng)為“自我引用推理”的問(wèn)題。

理解自我指涉問(wèn)題

通過(guò)根據(jù)其兩個(gè)主要組成部分定義術(shù)語(yǔ),最容易理解自引用推理的問(wèn)題:自引用和推理。

自我引用:指某人(或某些東西,如計(jì)算機(jī)程序或書(shū)籍)引用自身的實(shí)例。任何提到自己的人或事物都被稱(chēng)為“自我指涉”。

推理:在人工智能系統(tǒng)中,推理是一個(gè)過(guò)程,通過(guò)這個(gè)過(guò)程,代理人建立關(guān)于世界的“信念”,例如特定行為是否安全或特定推理系統(tǒng)是否合理。“良好的信念”是基于現(xiàn)有證據(jù)的合理或可信的信念。使用術(shù)語(yǔ)“信念”而不是“知識(shí)”,因?yàn)榇砣苏J(rèn)為的事物可能不是事實(shí)真實(shí)的并且可能隨著時(shí)間而改變。

因此,與AI相關(guān),術(shù)語(yǔ)“自引用推理”指的是使用推理過(guò)程來(lái)建立關(guān)于同一推理過(guò)程的信念的代理。因此,當(dāng)涉及到自我改進(jìn)時(shí),“自引用問(wèn)題”如下:代理人正在使用自己的推理系統(tǒng)來(lái)確定其推理系統(tǒng)的未來(lái)版本是否安全。

為了以另一種方式解釋問(wèn)題,Kumar指出,如果AI代理人創(chuàng)建了一個(gè)兒童代理來(lái)幫助它實(shí)現(xiàn)目標(biāo),那么在使用它之前,它會(huì)想要建立一些關(guān)于孩子安全的信念。這必然涉及通過(guò)辯論孩子的推理過(guò)程是好的來(lái)證明對(duì)孩子的信念。然而,孩子的推理過(guò)程可能與原始代理人的推理過(guò)程相似甚至延伸。最終,AI系統(tǒng)無(wú)法使用自己的推理來(lái)確定其推理是否良好。

從技術(shù)角度來(lái)看,問(wèn)題歸結(jié)為Godel的第二個(gè)不完備性定理,Kumar解釋說(shuō),“這表明沒(méi)有足夠強(qiáng)大的證明系統(tǒng)可以證明其自身的一致性,因此代理人很難證明他們的繼承者已被證明是安全的行為是事實(shí)上,安全。“

調(diào)查解決方案

迄今為止,已經(jīng)提出了針對(duì)該問(wèn)題的若干部分解決方案;但是,我們目前的軟件沒(méi)有足夠的自我參照推理支持,使解決方案易于實(shí)施和研究。因此,為了提高我們對(duì)實(shí)施自我推理推理的挑戰(zhàn)的理解,Kumar和他的團(tuán)隊(duì)旨在使用已經(jīng)提出的一些部分解決方案來(lái)實(shí)現(xiàn)AI代理的玩具模型。

具體而言,他們研究了在具體環(huán)境(特別是Botworld)中實(shí)施自我參考問(wèn)題的一種特定方法的可行性,其中可以檢查所有細(xì)節(jié)。選擇的方法是模型多態(tài)性。模型多態(tài)性不需要證明操作對(duì)所有未來(lái)用例都是安全的,而是僅需要對(duì)從證明系統(tǒng)中抽象出來(lái)的任意數(shù)量的步驟(或后續(xù)操作)證明是安全的。

Kumar指出,總體目標(biāo)最終是“了解理論與工作實(shí)現(xiàn)之間的差距,并加深對(duì)模型多態(tài)性方法的理解。”這可以通過(guò)在HOL中創(chuàng)建一個(gè)證明定理來(lái)實(shí)現(xiàn)(更高階描述情況的邏輯)定理證明者。

為了簡(jiǎn)化這一點(diǎn),實(shí)質(zhì)上,定理證明是計(jì)算機(jī)程序,它們有助于數(shù)學(xué)正確性證明的發(fā)展。這些數(shù)學(xué)正確性證明是該領(lǐng)域中最高的安全標(biāo)準(zhǔn),表明計(jì)算機(jī)系統(tǒng)總是為任何給定的輸入產(chǎn)生正確的輸出(或響應(yīng))。定理證明通過(guò)使用形式化的數(shù)學(xué)方法來(lái)證明或反駁系統(tǒng)底層控制算法的“正確性”,從而創(chuàng)建了這樣的證明。特別是HOL定理證明是一系列交互式定理證明系統(tǒng),有助于高階邏輯理論的構(gòu)建。高階邏輯支持對(duì)函數(shù),集合,集合等的量化,比其他邏輯更具表現(xiàn)力,允許用戶(hù)以高抽象級(jí)別編寫(xiě)正式語(yǔ)句。

回想起來(lái),庫(kù)馬爾說(shuō),試圖在HOL定理證明器中證明關(guān)于自我反思的多個(gè)步驟的定理是一項(xiàng)艱巨的任務(wù)。盡管如此,他斷言,在解決自我指涉問(wèn)題時(shí),團(tuán)隊(duì)向前邁進(jìn)了幾步,并指出他們建立了“許多必要的基礎(chǔ)設(shè)施,并更好地了解了如何證明它以及它需要什么。將基于模型多態(tài)性構(gòu)建原型代理。“

Kumar補(bǔ)充說(shuō),MIRI(機(jī)器智能研究所)的邏輯電感器也可以提供令人滿(mǎn)意的正式自引用推理版本,從而為自引用問(wèn)題提供解決方案。


免責(zé)聲明:本文由用戶(hù)上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。