您的位置: 首頁 >互聯(lián)網(wǎng) >

Facebook將改變算法 將幾乎違反政策的邊緣內(nèi)容降級

2022-06-24 06:08:40 編輯:顧松驊 來源:
導讀 Face book將改變其News Feed算法,將內(nèi)容降級,這幾乎違反了其禁止錯誤信息、仇恨言論、暴力、欺凌、點擊拜特的政策,因此即使它非常吸引

Face book將改變其News Feed算法,將內(nèi)容降級,這幾乎違反了其禁止錯誤信息、仇恨言論、暴力、欺凌、點擊拜特的政策,因此即使它非常吸引人,也會被更少的人看到。這一變化可能會大大減少煽動性政治集團、假新聞小販和Face book上更多最糟糕的東西的影響。它允許公司在網(wǎng)絡上隱藏它不想要的東西,而不采取強硬的立場,它必須為違反規(guī)則的內(nèi)容辯護。

在馬克·扎克伯格(Mark Zuckerberg)今天發(fā)表的一封5000字的信中,他解釋了如何存在一個“基本激勵問題”,即“當不受約束時,人們將不成比例地接觸更聳人聽聞和更具挑釁性的內(nèi)容。我們的研究表明,無論我們在哪里劃出允許的界限,當一部分內(nèi)容接近這一界限時,人們平均會更多地參與其中-即使他們事后告訴我們他們不喜歡這些內(nèi)容。

在沒有干預的情況下,與邊緣內(nèi)容的接觸看起來像上面的圖表,隨著它越來越接近政策線而增加。因此,F(xiàn)ace book正在進行干預,人為地抑制了這類內(nèi)容的新聞提要分發(fā),因此參與看起來像下面的圖表。

[更新:雖然扎克伯格在一個案例中提到過去時態(tài)的變化,但Face book告訴我,邊緣內(nèi)容降級只在有限的情況下有效。該公司將繼續(xù)重新利用其人工智能技術,積極主動地降低違反其政策的內(nèi)容,以找到并降級接近這些政策限制的內(nèi)容。

Face book將不僅僅對“新聞提要”(News Feed)而且對其所有內(nèi)容(包括群組和頁面本身)實施懲罰,以確保它不會通過推薦他們加入社區(qū)而使人們激進化,因為他們非常愿意參與這項政策。扎克伯格指出:“分化的群體和頁面仍然會助長兩極分化。

然而,有目的地想要查看邊緣內(nèi)容的用戶將有機會選擇加入。扎克伯格寫道:“對于那些想自己做出這些決定的人來說,我們認為他們應該有這個選擇,因為這種內(nèi)容并不違反我們的標準?!崩?,F(xiàn)ace book可能會為文化規(guī)范不同的裸體等內(nèi)容類型制定靈活的標準,比如一些妓女如何禁止女性在照片中暴露大量皮膚,而另一些人則允許在網(wǎng)絡電視上裸體。正如Zuckerber所說,F(xiàn)ace book必須首先訓練其人工智能,以便能夠可靠地檢測出哪些內(nèi)容越過了界限,或者有目的地接近了邊界線。

Face book此前已將算法改為降級clickbait。從2014年開始,它的鏈接排名下降,人們點擊,但很快反彈,沒有回到Face book上的帖子。到2016年,它正在分析標題中常見的點擊廣告詞,今年它禁止點擊廣告詞的不真實行為。但現(xiàn)在它給了其他類型的聳人聽聞的內(nèi)容降級待遇。這可能意味著有暴力的帖子,不能顯示身體傷害,或者生殖器幾乎沒有覆蓋的淫穢圖像,或者帖子表明人們應該為某一原因而實施暴力,而不直接告訴他們。

臉書最終可能會受到批評,特別是來自邊緣政治團體的批評,他們依賴邊緣內(nèi)容來煽動他們的基礎,傳播他們的信息。但隨著兩極分化和聳人聽聞的言論猖獗,撕裂了社會,F(xiàn)ace book已經(jīng)確定了一項政策,它可能試圖維護言論自由,但用戶沒有資格對該言論進行放大。

下面是扎克伯格關于邊緣內(nèi)容的完整書面陳述:

社交網(wǎng)絡面臨的最大問題之一是,如果不加以控制,人們將不成比例地接觸更聳人聽聞和挑釁性的內(nèi)容。這不是一個新現(xiàn)象。它在今天的有線新聞中很普遍,并且已經(jīng)成為一個多世紀以來小報的主要內(nèi)容。在規(guī)模上,它會破壞公共話語的質量,導致兩極分化。在我們的情況下,它也會降低我們的服務質量。

[圖表顯示與不斷增長的接觸導致政策走向,然后被封鎖]

我們的研究表明,無論我們在哪里劃出允許的界限,當一部分內(nèi)容接近這條線時,人們平均會更多地參與其中-即使他們事后告訴我們他們不喜歡這些內(nèi)容。

這是一個基本的激勵問題,我們可以通過懲罰邊緣內(nèi)容,使它得到更少的分配和參與。通過使分布曲線看起來像下面的圖表,在下面的分布隨著內(nèi)容變得更加聳人聽聞而下降,人們就會被激勵不去創(chuàng)建盡可能接近線的挑釁性內(nèi)容。

[圖表顯示直線下降的接觸導致政策線,隨后受阻]

這個調(diào)整這條曲線的過程類似于我上面描述的主動識別有害內(nèi)容的過程,但現(xiàn)在的重點是識別邊緣內(nèi)容。我們訓練人工智能系統(tǒng)來檢測邊緣內(nèi)容,這樣我們就可以減少分發(fā)這些內(nèi)容。

我們最關注的類別是點擊誘餌和錯誤信息。人們總是告訴我們這些類型的內(nèi)容會使我們的服務變得更糟-盡管他們與他們接觸。正如我上面提到的,阻止錯誤信息傳播的最有效的方法是刪除產(chǎn)生錯誤信息的假帳戶。第二個最有效的策略是減少其分布和病毒性。(我在關于[籌備選舉]的說明中更詳細地談到了這些辦法。

有趣的是,我們的研究發(fā)現(xiàn),這種邊緣內(nèi)容獲得更多參與的自然模式不僅適用于新聞,而且?guī)缀踹m用于每一類內(nèi)容。例如,接近裸體線的照片,比如暴露的衣服或性暗示的姿勢,在我們改變分布曲線以阻止這一點之前,平均得到了更多的參與。對于那些不屬于我們對仇恨言論定義范圍但仍然令人反感的帖子也是如此。

這種模式可能適用于人們加入的群體和他們所遵循的頁面。這一點尤為重要,因為雖然社交網(wǎng)絡一般會讓人們接觸到更多不同的觀點,而群體一般會鼓勵包容和接受,但分裂的群體和頁面仍然會助長兩極分化。為了管理這一點,我們需要應用這些分布變化,不僅是為了提供排名,而且是為了我們所有的推薦系統(tǒng),為您應該加入的東西。

一個常見的反應是,我們不應該減少分配,而應該簡單地移動定義可接受的內(nèi)容的線。在某些情況下,這是值得考慮的,但重要的是要記住,這不會解決潛在的激勵問題,這往往是更大的問題。這種參與模式似乎存在,無論我們在哪里劃出界限,所以我們需要改變這種激勵,而不僅僅是刪除內(nèi)容。

我相信這些努力在我們的系統(tǒng)中的潛在激勵是我們在整個公司做的一些最重要的工作。我們在過去的一年里取得了重大進展,但我們?nèi)杂泻芏喙ぷ饕觥?/p>

通過在我們的服務中解決這個激勵問題,我們相信它會創(chuàng)造一個良性循環(huán):通過減少各種形式的聳人聽聞,我們將創(chuàng)造一個更健康、更少兩極分化的話語,讓更多的人感到安全參與其中。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。