2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。
無論公司怎么說,AI都不會解決在線內(nèi)容審核的問題。這是我們之前多次聽到的承諾,特別是來自Facebook首席執(zhí)行官馬克扎克伯格,但專家表示,這項技術并不存在 - 事實上,可能永遠不會。
大多數(shù)社交網(wǎng)絡使用自動過濾和人工版主的組合將不需要的內(nèi)容保留在其平臺之外。正如The Verge在最近的調(diào)查中所揭示的那樣,人類主持人經(jīng)常在壓力很大的情況下工作。員工每天必須點擊數(shù)百項標記內(nèi)容 - 從謀殺到性虐待 - 然后決定是否違反平臺規(guī)則,通常是在嚴格控制的時間表上工作,沒有足夠的培訓或支持。
當他們展示他們的平臺正在創(chuàng)造的痛苦(以及其他適度相鄰的問題,如感知偏見)時,公司常常說更多的技術就是解決方案。例如,去年在國會前的聽證會上,扎克伯格引用人工智能作為這個和其他問題的答案超過30次。
“AI是扎克伯格的麥高芬,”詹姆斯Grimmelmann,康奈爾大學科技法律教授告訴華盛頓郵報 的時間。“它不會解決Facebook的問題,但它將解決扎克伯格的問題:讓其他人承擔責任。”
那么AI現(xiàn)在正在為Facebook和其他平臺做些什么,為什么不能做更多呢?
人類文化自動化的問題
現(xiàn)在,使用人工智能和機器學習的自動化系統(tǒng)肯定在幫助適度方面做了很多工作。它們充當分類系統(tǒng),例如,將可疑內(nèi)容推送給人類主持人,并且能夠自己清除一些不需要的東西。
但他們這樣做的方式相對簡單。通過使用視覺識別來識別容易出錯的廣泛類別的內(nèi)容(如“人類裸體”或“槍支”); 或者通過將內(nèi)容與被禁物品的索引相匹配,這需要人類首先創(chuàng)建所述索引。
后一種方法用于擺脫最明顯的侵權材料; 來自恐怖組織的宣傳視頻,虐待兒童材料和受版權保護的內(nèi)容。在每種情況下,內(nèi)容都由人類識別并“散列”,這意味著它變成了一個更快速處理的唯一數(shù)字串。該技術廣泛可靠,但仍可能導致問題。例如,YouTube的ContentID系統(tǒng)在過去曾將上傳內(nèi)容(如白噪聲和鳥鳴)標記為侵犯版權。
當內(nèi)容本身甚至不能被人類輕易分類時,事情變得更加棘手。這可以包括算法肯定會識別的內(nèi)容,但是它具有許多含義(如裸露 - 母乳喂養(yǎng)計數(shù)?)或者是非常依賴于上下文的內(nèi)容,如騷擾,假新聞,錯誤信息等。這些類別中沒有一個具有簡單的定義,并且對于它們中的每一個都存在沒有客觀狀態(tài)的邊緣情況,例如某人的背景,個人精神或者他們在任何特定日期的情緒可能會使一個定義與另一個定義之間產(chǎn)生差異。
我們要求AI理解人類文化的復雜性
非營利組織數(shù)據(jù)與社會的聯(lián)盟研究員羅賓·卡普蘭說,試圖讓機器理解這類內(nèi)容的問題在于,它實質(zhì)上是要求他們理解人類文化 - 這種現(xiàn)象過于流暢和微妙,無法在簡單的,機器可讀的規(guī)則。
“[這個內(nèi)容]往往涉及特定于演講者的背景,”卡普蘭告訴The Verge。“這意味著權力動態(tài),種族關系,政治動態(tài),經(jīng)濟動力等。”由于這些平臺在全球范圍內(nèi)運作,她說,還需要考慮不同的文化規(guī)范,以及不同的法律制度。
圣克拉拉大學法學教授埃里克戈德曼說,了解內(nèi)容是否難以分類的一種方法是詢問是否需要“外在信息” - 即圖像,視頻,音頻之外的信息或文字。
“例如,過濾器不善于發(fā)現(xiàn)有爭議事件的仇恨言論,模仿或新聞報道,因為這么多的決心取決于文化背景和其他外在信息,”高曼告訴The Verge。“同樣,過濾器并不擅長根據(jù)美國版權法確定內(nèi)容再版是否合理使用,因為該決定取決于外部信息,如市場動態(tài),原始資料和上傳者的其他活動。”
但人工智能作為一個領域正在迅速發(fā)展。那么未來的算法將來是否能夠可靠地對這類內(nèi)容進行分類?高盛和卡普蘭持懷疑態(tài)度。
高曼說,人工智能將更好地理解背景,但人工智能很快就能比人類更好地做到這一點并不明顯。“在可預見的未來,人工智能不會取代人類審稿人,”他說。
Caplan同意并指出,只要人們爭論如何對這種材料進行分類,機器有什么機會?“沒有簡單的解決辦法,”她說。“我們將繼續(xù)看到問題。”
但值得注意的是,AI并非完全沒有希望。最近深度學習的進步極大地提高了計算機對圖像,視頻和文本中的信息進行分類的速度和能力。為NanoNets工作的Arun Gandhi表示,這不應該打折扣,因為NanoNets是一家向在線企業(yè)銷售AI審核工具的公司。
“很多焦點都集中在內(nèi)容主持人的工作創(chuàng)傷或令人不安,這絕對是公平的,”甘地告訴The Verge。“但這也消除了我們正在解決其中一些問題的事實。”
已經(jīng)取得了進展,但目前尚不清楚它能走多遠
Gandhi解釋說,機器學習系統(tǒng)需要大量的例子來了解違規(guī)內(nèi)容是什么樣的,這意味著隨著訓練數(shù)據(jù)集變大,這些系統(tǒng)將在未來幾年內(nèi)得到改善。他指出,即使在幾年前,現(xiàn)有的一些系統(tǒng)看起來也不可能快速準確。“我很自信,鑒于我們在過去五年,六年中取得的進步,在某種程度上我們將能夠完全自動化適度,”甘地說。
然而,其他人則不同意,他們指出,人工智能系統(tǒng)不僅要掌握政治和文化背景(每月都在變化,而且國家與國家之間的變化),還要掌握諷刺和諷刺等基本的人類概念??梢酝ㄟ^簡單的黑客攻擊AI系統(tǒng)的各種方式,并且完整的AI解決方案看起來不太可能。
牛津互聯(lián)網(wǎng)研究所的律師和研究員Sandra Wachter表示,為了滿足內(nèi)容的需要,還需要將人類保持在循環(huán)中的法律原因。
“在歐洲,我們有一個數(shù)據(jù)保護框架[GDPR],允許人們對算法做出的某些決策提出異議。它還說決策的透明度很重要[并且]你有權知道你的數(shù)據(jù)發(fā)生了什么,“Wachter告訴The Verge。但是算法無法解釋為什么他們做出某些決定,她說,這使得這些系統(tǒng)不透明,并可能導致科技公司被起訴。
Wachter說,有關GDPR的投訴已經(jīng)提出,并且可能會有更多案件。“當有更高的權利,如隱私權和言論自由權時,重要的是我們有某種追索權,”她說。“當你必須做出影響其他人自由的判斷時,你必須在循環(huán)中擁有一個可以仔細檢查算法并解釋這些事情的人。”
正如Caplan所指出的那樣,科技公司可以做的事情 - 以其巨大的利潤率和對員工的關注責任 - 改善了人類主持人的工作條件。“至少我們需要有更好的勞工標準,”她說。正如Casey Newton在他的報告中指出的那樣,雖然像Facebook這樣的公司確實做出了一些努力來適當?shù)鬲剟钊祟愔鞒秩耍o予他們健康福利和高于平均水平的工資,但往往超過了對更好的準確性和更多決策的不懈努力。
Caplan表示,解決內(nèi)容自動化問題的技術公司面臨的壓力也可能導致這種狀況。“當你遇到工人被迫遵守不可能的準確標準的問題時,”她說。需要盡快提出解決方案,這有助于硅谷經(jīng)常受到誹謗的“快速行動并打破局面”的態(tài)度。雖然這可以成為推出應用程序時思考的好方法,但對于管理全球演講微妙之處的公司而言,這是一種糟糕的心態(tài)。
“而我們現(xiàn)在說,也許我們應該使用機器來解決這個問題,”卡普蘭說,“但這將導致一系列全新的問題。”
值得記住的是,這是一個新的獨特問題。從來沒有像Facebook和YouTube那樣擁有龐大且信息密集的平臺。這些地方世界上任何地方的任何人都可以隨時上傳和分享他們喜歡的任何內(nèi)容。管理這個龐大且不斷變化的半公共領域是“其他媒體系統(tǒng)無法面對的挑戰(zhàn),”卡普蘭說。
我們所知道的是現(xiàn)狀不起作用。負責清理互聯(lián)網(wǎng)混亂的人是痛苦的,創(chuàng)造這種混亂的人類并沒有好多少。人工智能沒有足夠的智慧來處理這個問題,而人類的智能也在不斷提出解決方案。有些東西必須給予。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權歸原作者所有。