您的位置: 首頁 >科技 >

谷歌科學家辛頓警告:人工智能對人類的威脅更緊迫

2023-05-06 09:20:52 編輯:季安亨 來源:
導(dǎo)讀 近期,谷歌科學家、神經(jīng)網(wǎng)絡(luò)領(lǐng)域的人工智能教父杰弗里·辛頓(Geoffrey Hinton)發(fā)表言論,稱人工智能(AI)可能是對人類更緊迫的威脅,相較于

近期,谷歌科學家、神經(jīng)網(wǎng)絡(luò)領(lǐng)域的“人工智能教父”杰弗里·辛頓(Geoffrey Hinton)發(fā)表言論,稱人工智能(AI)可能是對人類“更緊迫”的威脅,相較于氣候變化。雖然他為人工智能技術(shù)的發(fā)展奠定了基礎(chǔ),但他已經(jīng)離開了谷歌,因為他想完全自由地說出人工智能所帶來的危險。辛頓指出,如果機器獲得比人類更強的智能并控制地球,人工智能將對人類生存構(gòu)成威脅。

辛頓的工作被認為對當代人工智能系統(tǒng)的發(fā)展至關(guān)重要。1986年,他與人合著了一篇開創(chuàng)性的論文《通過反向傳播誤差來學習表征》,這是人工智能技術(shù)基礎(chǔ)神經(jīng)網(wǎng)絡(luò)發(fā)展的一個里程碑。2018年,他被授予圖靈獎,以表彰他的研究突破。

在周五的采訪中,辛頓表示,相較于氣候變化,人工智能的風險更加緊迫。他補充道,人類應(yīng)對氣候變化,相對而言,更容易提出一些有效的應(yīng)對策略。但對于人工智能的風險,你根本不知道如何下手。

雖然辛頓也擔心人工智能的威脅,但他不同意暫停研究。辛頓認為,這完全不現(xiàn)實。他認為人工智能技術(shù)存在巨大的風險,而且已經(jīng)非常接近了,我們現(xiàn)在應(yīng)該非常努力地工作,投入大量資源,找出我們能做些什么。

今年4月份,包括馬斯克在內(nèi)的許多科技產(chǎn)業(yè)人士聯(lián)署了一封公開信,呼吁所有相關(guān)實驗室立即暫停訓練人工智能系統(tǒng)至少6個月。美國總統(tǒng)拜登也對此表態(tài),警告人工智能技術(shù)對公共安全、隱私和民主構(gòu)成的危險,同時表示對其監(jiān)管的權(quán)力有限。副總統(tǒng)卡馬拉·哈里斯稱,企業(yè)有責任遵守現(xiàn)有的法律,以及“倫理、道德和法律責任,以確保其產(chǎn)品的安全和保障”。

辛頓指出,這完全不現(xiàn)實,我認為人工智能技術(shù)存在巨大的風險,而且已經(jīng)非常接近了,我們現(xiàn)在應(yīng)該非常努力地工作,投入大量資源,找出我們能做些什么。

此前一天,美國總統(tǒng)拜登會見了領(lǐng)先的人工智能公司谷歌、微軟、OpenAI和Anthropic的首席執(zhí)行官。拜登政府警告人工智能技術(shù)對公共安全、隱私和民主構(gòu)成的危險,同時表示對其監(jiān)管的權(quán)力有限。

副總統(tǒng)卡馬拉·哈里斯稱,這項技術(shù)“有可能極大地增加對安全和安保的威脅,侵犯公民權(quán)利和隱私,并侵蝕公眾對民主的信任和信心”。她補充說,企業(yè)有責任遵守現(xiàn)有的法律,以及“倫理、道德和法律責任,以確保其產(chǎn)品的安全和保障”。

辛頓表示:“科技行業(yè)的領(lǐng)導(dǎo)人最了解人工智能的風險,政府也必須參與進來。它影響到我們所有人,所以我們都必須考慮如何應(yīng)對它。”


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號:

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。

郵箱:toplearningteam#gmail.com (請將#換成@)