2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
Deepfakes 已經(jīng)存在一段時(shí)間了,但最近它們變得如此逼真,以至于很難從合法視頻中分辨出 Deepfake。對于那些可能不熟悉的人來說,deepfake 會利用名人的臉孔和聲音,制作一段視頻,讓該人說或做他們從未真正做過的事情。在選舉期間使用 Deepfakes 時(shí),對許多人來說最令人擔(dān)憂,因?yàn)樗鼈兛梢酝ㄟ^讓候選人看起來做過或說過他們從未真正做過的事情來影響選民。
Facebook宣布已與密歇根州立大學(xué) (MSU) 的研究人員合作開發(fā)一種檢測和處理深度偽造的方法。Facebook 表示,這項(xiàng)新技術(shù)依賴于逆向工程,逆向工程從單個(gè) AI 生成的圖像反向工作,以發(fā)現(xiàn)用于生成它的生成模型。深度偽造的大部分重點(diǎn)是檢測以確定圖像是真實(shí)的還是制造的。
Facebook 表示,除了檢測 Deepfake 之外,研究人員還可以執(zhí)行圖像歸因,確定使用什么特定的生成模型來生成 Deepfake。然而,圖像歸因的限制因素是大多數(shù)深度偽造是使用在訓(xùn)練期間未見過的模型創(chuàng)建的,并且在圖像歸因期間被簡單地標(biāo)記為由未知模型創(chuàng)建。
Facebook 和 MSU 的研究人員通過幫助根據(jù)其產(chǎn)生的深度偽造來推斷有關(guān)特定生成模型的信息,進(jìn)一步確定了圖像歸因。這項(xiàng)研究標(biāo)志著第一次有可能在沒有任何特定模型的先驗(yàn)知識的情況下識別用于創(chuàng)建 deepfake 的模型的屬性。
新的模型解析技術(shù)使研究人員能夠獲得有關(guān)用于創(chuàng)建 deepfake 的模型的更多信息,并且在現(xiàn)實(shí)世界中特別有用。通常,致力于檢測深度偽造的研究人員所擁有的唯一信息就是深度偽造本身。檢測從同一 AR 模型生成的深度偽造的能力對于發(fā)現(xiàn)依賴于深度偽造的協(xié)同虛假信息或惡意攻擊的實(shí)例非常有用。該系統(tǒng)首先通過指紋估計(jì)網(wǎng)絡(luò)運(yùn)行 deepfake 圖像,揭示生成模型留下的細(xì)節(jié)。
這些指紋是由生成模型創(chuàng)建的圖像上留下的獨(dú)特圖案,可用于識別圖像的來源。該團(tuán)隊(duì)將一個(gè)假圖像數(shù)據(jù)集與從 100 個(gè)公開可用的生成模型生成的 100,000 張合成圖像放在一起。測試結(jié)果表明,新方法的性能優(yōu)于過去的系統(tǒng),并且該團(tuán)隊(duì)能夠?qū)⒅讣y映射回原始圖像內(nèi)容。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。