揭密臉書、Google 等「內容審查員」的工作,可說是網路上心理壓力最大的職位

加入LINE好友

你的圖片莫名被臉書刪除了嗎?臉書誤判你的照片是色情圖片嗎?其實除了透過機器人快速篩選外,各大網路公司也都有為數不少的「內容審查員」,每天就是負責看各個平台上最黑暗、不堪入目的內容,然後刪除,為大家把關。

這份神祕但辛苦的工作到底是甚麼?本篇來為你揭曉

在柏林一個不起眼的辦公室裡,600 名員工如冰冷的機器一般,目不轉睛地盯著螢幕,拿著一個滑鼠頻頻點擊,卻做著影響全球20 億人的事情:

網上每天超過一百種語言的數十億貼文,哪些可以放出?哪些需要保留?哪些需要立刻刪掉?

他們是Facebook 的內容審查員們,幾乎每10 秒就要做出一個決定。

▲Vice 實探Facebook 的審核員工作環境. 圖片來自:MAX HOPPENSTEDT

這個群體,大部分其實並不了解。他們不在深不可測的暗網,也並非和網友近在咫尺,但近月加州大學教授Sarah T. Roberts出了一本新書《螢幕背後》講到:

社群網站上最陰暗的一面,不在廣大網友的的螢幕裡,而在內容審核員眼前。

▲ 圖片來自:《網路清道夫》截圖

1 天審查25000 條內容背後

你好,你發表的***,因為含有違反相關法律法規或管理規定的內容,已被移除。

當你發在臉書上的內容無法通過審查或突然被刪除時,就是內容審核員在工作了。

國內外各大網路公司每年都在擴編相關職位,光Facebook 在全球就已經有20,000 多名審核員,這似乎是一個永遠都在缺人的工作。

在早期,網路還是一片分散的網路,連接數十億個網站和社群的人們,隨著網路越來越「公司化」,Facebook,YouTube,Instagram…… 內容審核員開始出現,用來監管它們各自的網站。

所以簡單來說,內容審核員就是將網上涉嫌違規的內容刪掉的人。不過它帶給人們的第一印象,一般都是「色情守門員」。

「色情守門」沒錯,但只是工作內容的一部分,儘管很多人還認為這是一種額外福利,但它並沒人們想像的那麼簡單。

在一部《網路清道夫》的紀錄片中,Facebook的內容審核員一天的處理指標是25,000個。而這些內容中遍地都是兒童色情、恐怖主義、自殘虐殺、極端組織言論…….他們的職責,是把最骯髒和噁心的資訊阻隔在我們可以看到的世界之外。

▲ 圖片來自:《網路清道夫》截圖

刺激、壓抑、憤怒、冷漠、道德譴責…… 各種情緒混雜,不斷刷新感官、挑戰忍耐極限。每個人從不斷累積的趕快刺激,慢慢變成習慣後的麻木。

要做這個工作,你必須成為一個堅強的人,並且非常了解自己。

▲ 圖片來自:《網路清道夫》

而據國內某網路企業的員工敘述,他們的日常工作,除了會出現一些極端的情況,大部分時間可以說是反覆甚至有些枯燥的:

單一的工作環境。
盯著螢幕一整天,白天黑夜紊亂。
從成千上萬的自拍照、度假照、惡俗影片裡,重點搜尋涉黃和涉政,還有一小部分賭博、高利貸、賣槍賣藥的貼文。
刪除,再看,再刪除,再看。

▲雖然是著名的越戰照片,但也會也因為「捍衛未成年人的裸照」而被刪除

另外,他們的平均薪水高於最低工資。內容審核規則十分模糊,且經常變化,大部分靠既定模型和長期經驗中把握尺度,但有時候看上頭命令,有時候看上司命令。每個月都有人來,有人走,公司從來不留人。

只是一群普通人突然接觸到了禁忌世界,因為頻繁血腥而殘酷的內容,導致壓力也越來越大,累積到臨界值就開始潰堤。

2017年一樁Facebook的集體訴訟案中,數千名內容審核員表示在工作中受到了嚴重的心理傷害,導致發生創傷後應激障礙,「睡眠中一點響動都會讓我有遭遇車禍的錯覺」 。

但這又是一份不可或缺,至關重要的工作:網路清道夫,就是網路內容的把關者,如果他們不清理違禁內容,不阻擋那些非法資訊,就會有更多青少年和小孩看到。

Google、Facebook這些大公司非常重視它們,現在已經幾乎讓數十萬人任職,雖然它們也為審核員提供了心理健康諮詢和檢查,也依然承認,內容審核員是科技界最具心理創傷的工作之一。

那這份「悲傷職業」,有沒有可能用更好的方式去解決,甚至,人類可以不再做這類工作?

無法消失的內容審核員

事實上,目前的內容審核只能是人來進行的——貓捉老鼠的遊戲。

但好的一面是,現在還有AI 能幫他們預先滅掉一些。

隨著網路公司審核員投訴和抗議事件屢發,再加上網路用戶上傳內容量增加,頭部平台每天產生的UGC 內容量更是天文數字,人力投入昂貴且難以擴展,所以現在幾乎所有公司,都已經在用「人+機器」的內容審核方式。

▲ 雅虎開源過一套深度學習神經網路,能給圖片評估一個NSFW(Not Suitable/Safe For Work)值,最無害的是0,最極端是 1

國內最早利用AI 技術從事內容審核服務的圖普科技,據說現在對於色情、暴恐、低俗、詐騙等內容已經能達到99% 的辨識率,降低90% 以上的人工審核成本。

在人機結合的審核裡,首先AI 會進行第一階段海量內容的審核,區分正常內容、確定的不良內容以及不明確的內容,然後貼文被分類分配出來,再由審核員對「不明確的內容」進行人工複審。

這樣一來,AI 能夠幫內容審核員減輕負擔,讓他們更效率更高地去做決策,專注於數據分析。

但要讓人工智慧取代人力,現在依然像是天方夜譚。

雖然AI 技術發展越來越快,但是因為自然語言處理(NLP)的難度,機器在理解語言上,還不能達到人類的思維程度,所以審核文字也會失誤,更何況是圖片、音樂、影片。

深度學習的局限性在於,如果要創建準確檢測成人內容的神經網路,則必須先讓AI在數百萬個帶註釋的成人內容來訓練。沒有高質量的培訓數據,AI就很容易犯下錯誤。

▲ 圖片來自:《網路清道夫》截圖

AI擅長辨識色情、垃圾郵件和虛假帳戶,但因為審核量太大,類目很多,邊界模糊,就像女性母乳喂養、月經藝術、戰爭暴行,也會被誤認為違禁內容,被AI辨識挑選出的違禁圖片裡,還有數不盡的加菲貓,因為有它的畫面裡,幾乎都是黃色。

畢竟機器是人「餵」出來的,所以機器目前主要還是協助工作,無法思考和判斷有價值觀的「違禁內容」。

比如仇恨言論和騷擾方面,它辨識的準確率就很差,Facebook 認為它們可能需要5 到10 年的時間才能開發出可以發現仇恨言論的AI。

▲ 圖片來自:MICHELLE THOMPSON

圖普科技CEO 李明強在接受愛範兒採訪時也表示:

不得不承認的一個事實是,現階段AI 還處於弱人工智能階段,只有將來AI 具備自主學習、獨立思考的能力,達到人類的理性和感性判斷,也就是強人工智能階段,那時才有取代人力的可能。

因此,內容審核員在未來很長一段時間內都不會消失。

在這漫長的未來中,可以預見的是,隨著資訊傳播量越來越大,圖片影片樣式不斷翻新,AI技術會不斷升級,內容審核員也只會被繼續要求審查更高標準的、具有細微差別的違禁內容。

▲ 圖片來自:CONTENTBOT.NET

只是未來,網路環境也不一定就會更「綠色健康」。

無法消失的網路黃暴恐

和內容審核員一樣,黃暴恐可能也會一直在網上「存活」。

在這個比以往更容易自由表達的當下,人人發出自我的聲音,但這份自由屬於所有人,我們很難保證別人的自由不會傷害到我們自身,這是必然會產生的代價。

▲ 圖片來自:SETH LAUPUS

同時,隨著網路內容產業的競爭進入下半場,各家的流量之爭也越發激烈。

每個平台的內容審核員,除了刪除違禁內容,也會有意識地只放對平台有利的內容,從而打造出自己平台獨特的品牌風格,這也是品牌保護的一種形式。

但所有平台共同的一點是:它們都需要靠用戶的注意力存活下去。

▲ 圖片來自:SHUTTERSTOCK

為了讓用戶不斷上癮,這些公司就會通過越加精準的數據算法加上人工挑選,讓人們在平台上停留更久時間,讓人們越想看的越呈現,但:黃、暴、恐恰恰就是人性慾望之所在。

在一個又一個網路熱點中,已經可以看出,人性本能就喜歡不斷刷新底線的、挑戰禁忌的、煽動對立的、製造憤怒的內容,恰恰社交平台卻想要保持綠色健康美好光明的環境——這是個永遠無法解決的矛盾。

▲ 圖片來自:《網路清道夫》截圖

在這種衝突之下,各大平台似乎只能險中求穩。

對網友來說,儘管我們看到的內容,是被選擇過的,或者被定製過的,而且它會讓我們無法認識深層的醜惡真相,但更重要的是我們在任何情況下,都具有批判和思考的能力。

比起讓無底線的霸凌、犯罪、羞辱、反動遍布全網,把災難的火苗在源頭掐滅,總歸來說利大於弊。

內容審核員無法消失,「黃暴恐」也無法消失,我們只能讓技術更加先進,讓規則更加清晰,不然網路可能會朝著無法回頭的極端走去。

▲ 圖片來自:TIN VARSAVSKY/FLICKR

但無論什麼情況下,對我們而言最重要的,正如祖克伯在一次發表會上所說

我們需要勇氣去選擇希望而非恐懼,去宣示我們能讓世界變得更美好。我們必須保持樂觀,正是這份希望和這份樂觀促成了一個個偉大的進步。更重要的是,我們需要共同努力。

畢竟對比現實的深淵,內容審核員看到的殘酷萬象,也只是冰山一角。

(原文刊登於愛范兒,蘋果仁授權轉載)

更多網路世界》

靠截圖維生的「遊戲攝影師」,到底是一個什麼樣的工作?