對抗Facebook上的仇恨言論

Facebook認為,如果用戶不會因為自己的身份而被攻擊,他們便能更自在地發言和交流。有鑑於此,Facebook不允許平台上出現仇恨言論。這類言論會造成整個環境充斥著恫嚇與排擠,有時甚至可能會助長現實生活中的暴力。

制定政策

Facebook的《社群守則》政策中明訂了Facebook上允許和不允許出現的內容。為了制定政策,內容政策團隊參考了科技、公共安全和人權等領域的獨立專家所提出的意見。

世界各地共11處辦公室皆設有內容政策團隊,由不同範疇的專家所組成,例如恐怖主義、仇恨言論和兒童安全。這些專家隸屬於規模更大的Facebook團隊,當中共有超過35,000人負責處理人身安全和保全問題,其中包括超過15,000人擔任內容審查員。

《社群守則》並非一陳不變,因此Facebook會持續調整政策,以跟上不斷變化的網絡行為。

內容政策團隊每隔兩星期便會召開名為政策論壇的會議,討論如何修正《社群守則》和廣告政策。這對仇恨言論等政策格外重要,因為網上用語的意義瞬息萬變,前一天才冒出的詞語,隔一天便可能成為損人用字。

內容政策團隊召集了全公司的專家參與政策論壇,有時甚至會邀請記者和學術界人士出席會議來觀察Facebook的工作。

內容政策團隊盡可能使其業務透明化,所以每一場政策論壇結束後,他們會在此發布會議記錄,政策調整內容則會在此更新。

定義仇恨言論

甚麽內容才算是仇恨言論,在全球並沒有公認的定義。雖然有些國家/地區立法禁止仇恨言論,但各自的定義卻大有不同。

Facebook 將仇恨言論定義為根據受保護的特徵,直接攻擊他人。這個定義是在對外進行大量研究,並諮詢許多獨立專家後所得出的。

甚麼是直接攻擊?

Facebook對攻擊的定義如下:

  • 暴力或抹滅人性的言論
  • 有害的刻板印象
  • 貶低性的陳述
  • 表達蔑視
  • 厭惡或打發
  • 咒罵
  • 呼籲排他或劃清界線

甚麼是受保護的特徵?

Facebook受保護特徵的定義如下:

  • 種族
  • 族裔
  • 國籍
  • 身心障礙
  • 宗教信仰
  • 社會階級
  • 性取向
  • 性別
  • 性別身分認同
  • 嚴重疾病

與其他受保護的特徵一併參考時,年齡將視為受保護的特徵。對於與受保護的特徵一併參考的特徵(如職業),Facebook也提供保障。

Facebook亦會保護難民、遷徙者、移民和尋求庇護者,使其不受最嚴重的攻擊,但允許對移民政策發表評論和批評。

這項政策保障的對象是誰?

Facebook的仇恨言論政策涵蓋以個人或群體為對象的仇恨言論或圖像,但不包含以實體、意識形態或機構為對象的言論或圖像。

舉例來說,Facebook不允許用戶說出「我恨基督徒」這句話,因為對象指的是一群人,但「我恨基督教」便不是禁語,因為這指的是一種意識形態。

攻擊程度

Facebook將攻擊分為三種嚴重等級,詳細說明已發布在《社群守則》中。

  • 1 級:暴力言論、特定抹滅人性的比喻、抹滅人性的言論、嘲笑仇恨罪行的概念或受害者
  • 2 級:貶低性的陳述:生理面、心理面、道德面或泛稱;表達蔑視或厭惡;詛咒
  • 3 級:呼籲劃清界線或排他:意味明確、涉及政治、經濟或社會面

解決 Facebook 上的仇恨言論問題

Facebook透過在旗下應用程式中提供的工具,以確保用戶能控制分享的內容和對象、看到的內容,以及誰能與他們聯絡。

私隱設定檢查

透過私隱設定檢查,用戶可以瞭解:

  • 誰能看到他們分享的內容
  • 如何保障帳戶安全
  • 用戶如何在Facebook上找到自己
  • 他們在Facebook上的數據設定

回應控制選項:用戶可以從選單中選擇適當對象(範圍從可以查看帖子的用戶到僅限標註的用戶及專頁),藉此控制可以在特定公開帖子回應的對象。

分享對象選擇器:每當在Facebook上發布任何內容時,用戶都可以使用「分享對象選擇器」來決定誰能看到該內容。用戶可以選擇與所有人分享,也可以選擇只與朋友甚至是自訂對象分享。

檢視角度:如果用戶是以電腦使用Facebook,便可使用「檢視角度」工具查看其他人看到個人檔案的模樣。這樣,用戶便能確保私隱和帳戶安全設定符合自身需求。

標籤審查生活時報審查:「標籤審查」可讓用戶批准或隱藏在帖子中加入的標籤,「生活時報審查」則可讓用戶決定有自己標註在內的帖子是否能顯示在生活時報上。

暫停追蹤取消追蹤:透過「暫停追蹤」和「取消追蹤」,用戶可以進一步控制要在Facebook上與誰聯絡。「暫停追蹤」可讓用戶選擇隱藏用戶、專頁或群組30天,而不需永久取消追蹤對方或從朋友名單中移除。「取消追蹤」可讓用戶保留朋友,但對方的內容不會顯示在他們的動態消息中。

執行政策

Facebook會參考社群的舉報和自家團隊的評論,並運用相關技術來找出和審查違反《社群守則》的內容。

由於技術上的領先優勢,Facebook在處理平台上仇恨言論問題方面已有明顯的進步。如Facebook的社群守則執行狀況報告所述,在2019年12月至2020年12月期間,Facebook給予處分的仇恨言論數量攀升近400%。

Facebook在2017年第4季首次納入仇恨言論衡量數據,當時的主動發現率為23.6%。換言之,遭Facebook移除的仇恨言論中,Facebook主動發現(非用戶舉報)的比率是23.6%,到了2020年第4季,Facebook的主動發現率攀升至97.1%,換言之,在短短3年內,Facebook的主動發現率升幅超過320%。

因此,用戶在Facebook上每看到1萬則內容,估計只有7至8則內容會包含仇恨言論。

Facebook在處理仇恨言論問題方面的進步,可歸功於下列幾個領域的人工智能技術(AI)發展:

  • XLM-R或語言理解:能夠建立機械學習分類法來分析多種語言中的相同概念,在一種語言中的學習成果可以改善在另一種語言中的效能。對於網絡上較不常用的語言來說,上述技術格外實用。
  • 全文解讀或WPIE:能夠從整體的角度檢視帖文(不論是圖像、影片還是文字都一樣),並同時找出各種違反政策的問題,而不需執行多種分類法。

此外,Facebook也運用人工智能技術,在考慮以下幾種因素後優先處理需要審查的內容:

  • 傳播力:與無人分享或觀看的內容相比,疑似違規的瘋傳內容將會更優先獲得處理。
  • 嚴重性:與自殺和自殘或兒童剝削等對現實生活造成傷害的有關內容,優先處理順序將高於詐騙等傷害程度較低的內容類型。
  • 違規可能性:內容與其他違規問題類似的內容相似,優先處理順序將高於看似沒有違規記錄的內容。

Facebook透過以上方式來決定內容的優先處理順序,不考慮內容在平台上的分享時機,或者是由用戶舉報還是經由系統發現,Facebook便能優先處理違規最嚴重的內容。

Facebook仍需要做更多工作,但對現時的成果感到振奮,對於日後偵測仇恨言論也更有信心。

這篇文章 對抗Facebook上的仇恨言論 最早出現於 TechApple.com

繼續閱讀

最新電競新聞

You may also like...