您的位置: 首頁 >科技 >

Adobe正在使用機器學習來更容易地發(fā)現(xiàn)Photoshop圖像

2019-05-13 11:58:08 編輯: 來源:
導讀 世界各地的專家越來越擔心新的人工智能工具,這使得編輯圖像和視頻變得前所未有的容易 - 尤其是社交媒體能夠快速分享令人震驚的內(nèi)容而無

世界各地的專家越來越擔心新的人工智能工具,這使得編輯圖像和視頻變得前所未有的容易 - 尤其是社交媒體能夠快速分享令人震驚的內(nèi)容而無需事實檢查。其中一些工具是由Adobe開發(fā)的,但該公司還在研究如何使用機器學習來自動發(fā)現(xiàn)編輯過的圖片,從而開發(fā)各種解毒劑。

該公司本月在CVPR計算機視覺會議上展示的最新作品展示了人類可以在更短的時間內(nèi)通過機器自動完成數(shù)字取證。該研究論文并不代表該領域的突破,它尚未作為商業(yè)產(chǎn)品提供,但有趣的是,Adobe - 一個與圖像編輯同義的名稱 - 對這一系列工作感興趣。

該公司發(fā)言人在接受The Verge采訪時說,這是一個“早期研究項目”,但未來,該公司希望在“開發(fā)有助于監(jiān)控和驗證數(shù)字媒體真實性的技術”中發(fā)揮作用。這可能意味著什么并不清楚,因為Adobe從未發(fā)布過旨在發(fā)現(xiàn)假圖像的軟件。但是,該公司指出其與執(zhí)法部門的合作(例如,使用數(shù)字取證幫助尋找失蹤兒童)作為其對其技術負責任態(tài)度的證據(jù)。

Adobe新論文中的一個例子,展示了如何通過機器學習系統(tǒng)發(fā)現(xiàn)圖像中的編輯。

新的研究論文展示了機器學習如何用于識別三種常見類型的圖像處理:拼接,其中兩個不同圖像的組合; 克隆,復制和粘貼圖像中的對象; 并且在完全刪除對象時刪除。

為了發(fā)現(xiàn)這種篡改,數(shù)字取證專家通常會在隱藏的圖像層中尋找線索。當進行這些類型的編輯時,它們會留下數(shù)字偽像,例如由圖像傳感器(也稱為圖像噪聲)產(chǎn)生的顏色和亮度的隨機變化的不一致。例如,當您將兩個不同的圖像拼接在一起時,或者將一個對象從圖像的一個部分復制并粘貼到另一個圖像時,這種背景噪聲就不匹配,就像墻上的污點覆蓋著略微不同的顏色。

與許多其他機器學習系統(tǒng)一樣,Adobe使用編輯圖像的大型數(shù)據(jù)集進行教學。由此,它學會了發(fā)現(xiàn)篡改的常見模式。它在一些測試中得分高于其他團隊建立的類似系統(tǒng),但并不是那么顯著。然而,該研究沒有直接應用于發(fā)現(xiàn)使用人工智能創(chuàng)建的新版編輯視頻的深度偽造。

“這些新ML方法的好處在于它們具有發(fā)現(xiàn)不明顯且以前不為人知的文物的潛力,”數(shù)字取證專家Hany Farid告訴The Verge。“這些方法的缺點是它們只能提供給網(wǎng)絡的訓練數(shù)據(jù),并且至少現(xiàn)在不太可能學習更高級別的偽像,如陰影和反射幾何形狀的不一致。”

除了這些警告之外,很高興看到更多的研究可以幫助我們發(fā)現(xiàn)數(shù)字假貨。如果那些發(fā)出警報的人是正確的,我們將走向某種后真相世界,我們將需要我們可以從虛構(gòu)中對事實進行排序的所有工具。人工智能可能會受到傷害,但它也有幫助。


免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。