您的位置: 首頁 >科技 >

三星的deepfake技術(shù)越來越可怕

2022-08-03 12:24:20 編輯:魏韋芬 來源:
導(dǎo)讀 Deepfake的技術(shù)已經(jīng)變得非常好了,就在過去的幾天和幾個星期里,從《蒙娜麗莎》的動畫到生活,從已故名人和名人的照片,比如阿爾伯特·愛因...

Deepfake的技術(shù)已經(jīng)變得非常好了,就在過去的幾天和幾個星期里,從《蒙娜麗莎》的動畫到生活,從已故名人和名人的照片,比如阿爾伯特·愛因斯坦,似乎通過逼真的語言和面部表情活了過來。

這對目前還在世的名人和知名人士來說尤其不妙,比如最近流傳的馬克·扎克伯格(Mark Zuckerberg)的深度偽造視頻,以及金·卡戴珊(Kim Kardashian)的這段視頻。

三星研究人員尤其擅長這個,最近的例子是三星的人工智能研究中心之間的伙伴關(guān)系在英國與倫敦帝國理工學(xué)院合作,創(chuàng)造一個人工智能的,同步音頻剪輯與面部動作源自一個人的照片。

所有的技術(shù)工作,進(jìn)入過程中解釋在這里,但看看他們的工作在行動,看。這段視頻使用了一張已故俄羅斯神秘主義者、自詡為僧侶的格里戈里·拉斯普京(Grigori Rasputin)的黑白照片,配上面部表情,讓人覺得他在唱碧昂斯(Beyonce)的《光環(huán)》(Halo):

所有這些都是通過所謂的“生成式對抗網(wǎng)絡(luò)”來完成的,簡稱GAN。“使用這個模型生成的視頻不僅產(chǎn)生與音頻同步的嘴唇動作,還展示了典型的面部表情,如眨眼、皺眉等,”研究人員在一篇有關(guān)他們工作的學(xué)術(shù)論文中寫道。“我們改進(jìn)的模型可以在‘野外’看不見的面孔上工作,能夠捕捉說話人的情緒,并在面部表情中反映出來。”

當(dāng)然,上面的拉斯普京剪輯一點(diǎn)也不現(xiàn)實(shí),但它讓你感受到了這項(xiàng)技術(shù)是如何發(fā)展的。在我看來,下一個例子是最近最吸引人的例子之一——一個愛因斯坦講話的真實(shí)音頻剪輯,與制作拉斯普京視頻的那種人工智能相匹配。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。