Facebook認為,如果用戶不會因為自己的身份而被攻擊,他們便能更自在地發言和交流。有鑑於此,Facebook不允許平台上出現仇恨言論。這類言論會造成整個環境充斥著恫嚇與排擠,有時甚至可能會助長現實生活中的暴力。
制定政策
Facebook的《社群守則》政策中明訂了Facebook上允許和不允許出現的內容。為了制定政策,內容政策團隊參考了科技、公共安全和人權等領域的獨立專家所提出的意見。
世界各地共11處辦公室皆設有內容政策團隊,由不同範疇的專家所組成,例如恐怖主義、仇恨言論和兒童安全。這些專家隸屬於規模更大的Facebook團隊,當中共有超過35,000人負責處理人身安全和保全問題,其中包括超過15,000人擔任內容審查員。
《社群守則》並非一陳不變,因此Facebook會持續調整政策,以跟上不斷變化的網絡行為。
內容政策團隊每隔兩星期便會召開名為政策論壇的會議,討論如何修正《社群守則》和廣告政策。這對仇恨言論等政策格外重要,因為網上用語的意義瞬息萬變,前一天才冒出的詞語,隔一天便可能成為損人用字。
內容政策團隊召集了全公司的專家參與政策論壇,有時甚至會邀請記者和學術界人士出席會議來觀察Facebook的工作。
內容政策團隊盡可能使其業務透明化,所以每一場政策論壇結束後,他們會在此發布會議記錄,政策調整內容則會在此更新。
定義仇恨言論
甚麽內容才算是仇恨言論,在全球並沒有公認的定義。雖然有些國家/地區立法禁止仇恨言論,但各自的定義卻大有不同。
Facebook 將仇恨言論定義為根據受保護的特徵,直接攻擊他人。這個定義是在對外進行大量研究,並諮詢許多獨立專家後所得出的。
甚麼是直接攻擊?
Facebook對攻擊的定義如下:
- 暴力或抹滅人性的言論
- 有害的刻板印象
- 貶低性的陳述
- 表達蔑視
- 厭惡或打發
- 咒罵
- 呼籲排他或劃清界線
甚麼是受保護的特徵?
Facebook受保護特徵的定義如下:
- 種族
- 族裔
- 國籍
- 身心障礙
- 宗教信仰
- 社會階級
- 性取向
- 性別
- 性別身分認同
- 嚴重疾病
與其他受保護的特徵一併參考時,年齡將視為受保護的特徵。對於與受保護的特徵一併參考的特徵(如職業),Facebook也提供保障。
Facebook亦會保護難民、遷徙者、移民和尋求庇護者,使其不受最嚴重的攻擊,但允許對移民政策發表評論和批評。
這項政策保障的對象是誰?
Facebook的仇恨言論政策涵蓋以個人或群體為對象的仇恨言論或圖像,但不包含以實體、意識形態或機構為對象的言論或圖像。
舉例來說,Facebook不允許用戶說出「我恨基督徒」這句話,因為對象指的是一群人,但「我恨基督教」便不是禁語,因為這指的是一種意識形態。
攻擊程度
Facebook將攻擊分為三種嚴重等級,詳細說明已發布在《社群守則》中。
- 第 1 級:暴力言論、特定抹滅人性的比喻、抹滅人性的言論、嘲笑仇恨罪行的概念或受害者
- 第 2 級:貶低性的陳述:生理面、心理面、道德面或泛稱;表達蔑視或厭惡;詛咒
- 第 3 級:呼籲劃清界線或排他:意味明確、涉及政治、經濟或社會面
解決 Facebook 上的仇恨言論問題
Facebook透過在旗下應用程式中提供的工具,以確保用戶能控制分享的內容和對象、看到的內容,以及誰能與他們聯絡。
透過私隱設定檢查,用戶可以瞭解:
- 誰能看到他們分享的內容
- 如何保障帳戶安全
- 用戶如何在Facebook上找到自己
- 他們在Facebook上的數據設定
回應控制選項:用戶可以從選單中選擇適當對象(範圍從可以查看帖子的用戶到僅限標註的用戶及專頁),藉此控制可以在特定公開帖子回應的對象。
分享對象選擇器:每當在Facebook上發布任何內容時,用戶都可以使用「分享對象選擇器」來決定誰能看到該內容。用戶可以選擇與所有人分享,也可以選擇只與朋友甚至是自訂對象分享。
檢視角度:如果用戶是以電腦使用Facebook,便可使用「檢視角度」工具查看其他人看到個人檔案的模樣。這樣,用戶便能確保私隱和帳戶安全設定符合自身需求。
標籤審查和生活時報審查:「標籤審查」可讓用戶批准或隱藏在帖子中加入的標籤,「生活時報審查」則可讓用戶決定有自己標註在內的帖子是否能顯示在生活時報上。
暫停追蹤和取消追蹤:透過「暫停追蹤」和「取消追蹤」,用戶可以進一步控制要在Facebook上與誰聯絡。「暫停追蹤」可讓用戶選擇隱藏用戶、專頁或群組30天,而不需永久取消追蹤對方或從朋友名單中移除。「取消追蹤」可讓用戶保留朋友,但對方的內容不會顯示在他們的動態消息中。
執行政策
Facebook會參考社群的舉報和自家團隊的評論,並運用相關技術來找出和審查違反《社群守則》的內容。
由於技術上的領先優勢,Facebook在處理平台上仇恨言論問題方面已有明顯的進步。如Facebook的社群守則執行狀況報告所述,在2019年12月至2020年12月期間,Facebook給予處分的仇恨言論數量攀升近400%。
Facebook在2017年第4季首次納入仇恨言論衡量數據,當時的主動發現率為23.6%。換言之,遭Facebook移除的仇恨言論中,Facebook主動發現(非用戶舉報)的比率是23.6%,到了2020年第4季,Facebook的主動發現率攀升至97.1%,換言之,在短短3年內,Facebook的主動發現率升幅超過320%。
因此,用戶在Facebook上每看到1萬則內容,估計只有7至8則內容會包含仇恨言論。
Facebook在處理仇恨言論問題方面的進步,可歸功於下列幾個領域的人工智能技術(AI)發展:
- XLM-R或語言理解:能夠建立機械學習分類法來分析多種語言中的相同概念,在一種語言中的學習成果可以改善在另一種語言中的效能。對於網絡上較不常用的語言來說,上述技術格外實用。
- 全文解讀或WPIE:能夠從整體的角度檢視帖文(不論是圖像、影片還是文字都一樣),並同時找出各種違反政策的問題,而不需執行多種分類法。
此外,Facebook也運用人工智能技術,在考慮以下幾種因素後優先處理需要審查的內容:
- 傳播力:與無人分享或觀看的內容相比,疑似違規的瘋傳內容將會更優先獲得處理。
- 嚴重性:與自殺和自殘或兒童剝削等對現實生活造成傷害的有關內容,優先處理順序將高於詐騙等傷害程度較低的內容類型。
- 違規可能性:內容與其他違規問題類似的內容相似,優先處理順序將高於看似沒有違規記錄的內容。
Facebook透過以上方式來決定內容的優先處理順序,不考慮內容在平台上的分享時機,或者是由用戶舉報還是經由系統發現,Facebook便能優先處理違規最嚴重的內容。
Facebook仍需要做更多工作,但對現時的成果感到振奮,對於日後偵測仇恨言論也更有信心。
這篇文章 對抗Facebook上的仇恨言論 最早出現於 TechApple.com。