您的位置: 首頁 >科技 >

Google研究人員探索確保未來AI系統(tǒng)安全的方法

2022-07-29 21:45:01 編輯:太叔蓓和 來源:
導(dǎo)讀 對未來人工智能系統(tǒng)出現(xiàn)問題的擔(dān)憂已引起Google研究人員的關(guān)注。在公司的DeepMind小組宣布與牛津大學(xué)的研究人員合作開發(fā)無賴AI系統(tǒng)的殺傷開...

對未來人工智能系統(tǒng)出現(xiàn)問題的擔(dān)憂已引起Google研究人員的關(guān)注。在公司的DeepMind小組宣布與牛津大學(xué)的研究人員合作開發(fā)無賴AI系統(tǒng)的殺傷開關(guān)后不到兩周,谷歌發(fā)布了一份致力于解決AI安全風(fēng)險的技術(shù)論文。

這篇名為“人工智能安全的具體問題”的論文是與斯坦福大學(xué),加利福尼亞大學(xué),伯克利分校和致力于人工智能研究的非營利性公司OpenAI的研究人員合作撰寫的。

它概述了研究人員說在當(dāng)今相對較小的五個基本問題,但隨著機器在未來變得越來越智能,預(yù)測將具有更大的重要性。

谷歌研究員克里斯·奧拉赫(Chris Olah)在該公司的研究博客上說,本文探索了解決這些問題并確保將AI系統(tǒng)設(shè)計為以可靠且安全的方式運行的實用方法。

Olah說:“雖然可能的AI安全風(fēng)險已經(jīng)引起了公眾的廣泛關(guān)注,但大多數(shù)先前的討論都是非常假設(shè)性和推測性的。” 他說:“我們認(rèn)為,在真正的機器學(xué)習(xí)研究中關(guān)注問題并開始為工程AI系統(tǒng)開發(fā)實用方法至關(guān)重要。”

機器學(xué)習(xí)和人工智能是Google的重要領(lǐng)域。該公司表示,希望利用這些領(lǐng)域的進(jìn)步來改善其核心技術(shù)。它已經(jīng)在某些應(yīng)用程序中應(yīng)用了AI和機器智能技術(shù),包括Google Translate,Google Photos和語音搜索。

公司首席執(zhí)行官Sundar Pichai 表示,Google希望看到AI能夠從根本上改變?nèi)藗兊某鲂蟹绞剑瓿扇粘H蝿?wù)并解決醫(yī)療保健和氣候變化等領(lǐng)域的問題。

OpenAI研究人員Paul Christiano和Greg Brockman在博客文章中指出,先進(jìn)的AI意味著使AI系統(tǒng)更智能,更安全,并在新發(fā)布的技術(shù)論文中宣布了公司的作用。研究人員說,這意味著“確保AI系統(tǒng)能夠完成人們真正希望他們做的事情”。

新發(fā)布的Google技術(shù)論文研究的五個問題之一是確保AI系統(tǒng)在執(zhí)行功能時不會對環(huán)境造成負(fù)面影響的一種方法。例如,Olah指出要對清潔機器人進(jìn)行編程,使其不要敲倒花瓶,即使這樣做可以更快地完成任務(wù)。

其他問題涉及找出確保機器人不會從事具有負(fù)面影響的活動的方法,例如將濕拖把插入電源插座,或者以適當(dāng)安全的方式在不同的環(huán)境(例如車間或辦公室)中運行。

OpenAI的克里斯蒂安諾和布羅克曼說:“許多問題并不是新問題,但是本文是在尖端系統(tǒng)的背景下進(jìn)行探討的。”

這份新的技術(shù)論文似乎是對解決AI安全相關(guān)問題日益加深關(guān)注的一部分。例如,谷歌與牛津大學(xué)的研究專注于確保未來的超智能AI系統(tǒng)永遠(yuǎn)不會主動阻止操作員的干擾。目的是確保工程師能夠以一種不穩(wěn)定或不安全的方式開始安全關(guān)閉AI系統(tǒng)。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。