Facebook 打擊不實資訊

Facebook 與社會大眾有共同的目標,希望限制不實資訊的散播,這也是Facebook積極打擊不實資訊的原因。Facebook 採取的行動由與超過 80 家事實查證夥伴合作建造一個空前的全球事實查證網絡、推廣正確資訊,到移除違反 Facebook 社群守則的內容。不實資訊十分複雜且不斷演變,目前沒有解決這類問題的絕對良方。因此,Facebook 持續諮詢外部專家、擴大Facebook的事實查證計畫,並改善偵測不實資訊的技術。

不實資訊的定義

不實資訊意指非刻意分享的錯誤資訊,不實資訊的內容是在個人用戶之間互相分享,但並非有組織地試圖誤導或欺騙他人。

虛假資訊為刻意分享誤導他人的內容,且為操控活動(manipulation campaign)或資訊戰(information operation)的一部分,屬於協作性質行為,大多數牽涉假帳號。Facebook 不允許這類活動,一旦發現此行為,就會立即移除該行為人的帳號與內容。此外,Facebook也會透過Newsroom,每月分享處理協作性質造假行為的相關工作進度。

Facebook 打擊不實資訊的行動

Facebook 以三層架構:移除、降低、告知,處理平台上的不實資訊。第三方事實查證計畫屬於三層架構的一部分。

第三方事實查證計畫

Facebook 認為任何人,不論是私人企業或是政府,都不應判定事情的真實與錯誤。若成為事實的仲裁者,可能導致權力不平衡與過度干涉。因此,Facebook 透過與獨立事實查證機構合作,定義並審核潛在的不實資訊,並根據第三方事實查證機構的決定採取行動。

Facebook 與全球 80 多間獨立第三方事實查證機構合作,涵蓋超過 60 種語言。在亞太地區,Facebook 第三方事實查證計畫在印尼、新加坡、馬來西亞、香港、緬甸、泰國、斯里蘭卡、孟加拉、巴基斯坦、南韓、台灣、印度、菲律賓、澳洲、紐西蘭及太平洋島嶼皆有合作夥伴。

過去一年,Facebook 擴大支持全球事實查證社群,包括 Facebook 與 WhatsApp 提供 2 百萬美元的補助,協助受疫情嚴重影響地區的第三方事實查證機構提高效能。Facebook也與 包括來自亞太地區的10 間事實查證機構合作,推出為期一年的研究計畫,增添新成員協助這些機構建立事實查證能力。

Facebook 的合作夥伴皆經過無黨派國際事實查核聯盟(International Fact Checking Network)之認證

More information about our third party fact checking program can be found here.

更多第三方事實查證計畫的資訊請瀏覽此處

移除

Facebook 有處理具高度傷害虛假資訊的政策,同時 Facebook 也會在發現虛假資訊時立即移除相關資訊。

Facebook 會移除對人們造成現實生活的傷害或迫在眉睫的人身傷害。Facebook 有禁止操縱影片與深度偽造技術的政策,也就是看不出來經過剪輯且刻意誤導他人的內容。

去年下旬,Facebook 推出禁止軍事化社會運動(militarized social movements),例如位於美國的基諾沙衛隊(Kenosha Guard),以及引發暴力行為的陰謀論網絡(violence inducing conspiracy networks)如匿名者 Q (QAnon)的政策。Facebook 也禁止所有干預選民投票(voter suppression)的內容。

Facebook 移除可能立即導致身體傷害的2019冠狀病毒病(COVID-19)不實資訊,包括與療法、療效、必要服務的提供,或疫情爆發地點和嚴重性相關的虛假資訊。此外,Facebook 也移除了含有已被闢謠或無證據支持的 COVID-19 疫苗不實資訊,例如疫苗的安全性、功效、成分或副作用的虛假宣稱。2020 年 3 月至 10 月間,Facebook 總共移除了 1,200 萬則 COVID-19 的不實資訊。

Facebook 的廣告刊登政策長期禁止平台上誤導他人的資訊,關於 COVID-19,Facebook也特別推出新的廣告刊登政策,不允許出現廣告的類型包括:

  • 利用公共衛生危機製造緊迫或恐懼的COVID-19相關供應或產品的廣告
  • 針對非醫療用口罩、消毒洗手液的效用/特性提出具欺騙性質、不實或誤導性的宣稱內容
  • 含有欺騙、不實或無事實根據內容的保健廣告,包括產品或服務可以提供 100% 預防或免疫,或治療病毒的宣稱內容。

同時,Facebook 也會移除特定的廣告目標設定選項,例如「疫苗爭議」,這些選項可能會促使不實資訊散佈。

如果有關 COVID-19 的廣告包含政治或選舉內容,或者內容包含有關(某些國家/地區中)社會議題的宣傳、辯論或討論,這些廣告必須獲得授權並提供「資助者」免責聲明才能刊登。

關於不符合 COVID-19 廣告刊登政策規則但違反 Facebook 社群守則的不實資訊或虛假資訊,例如仇恨言論、霸凌、騷擾或垃圾資訊,Facebook 也會移除任何違反社群守則的內容。

Facebook也會針對與疫苗騙局相關的廣告採取額外行動。透過升級相關系統,以確保與疫苗相關不實資訊的廣告無法刊登。同時,Facebook 也會移除特定的廣告目標設定選項,例如「疫苗爭議」,這些選項可能會促使不實資訊的散佈。

降低

凡經過第三方事實查證機構評斷為不實的內容,Facebook 會降低該內容在 Facebook 與 Instagram 動態消息中出現的次序,以盡量減少其流傳的機會。在 Instagram 上,Facebook 也會透過在搜尋與主題標籤頁面中過濾該內容,讓用戶較難搜尋到該則不實內容。

若有粉絲專頁或網域重複分享不實資訊,Facebook 會大幅減少其內容的散佈,同時撤除廣告刊登與營利的權限。

Facebook也會減少垃圾資訊或聳動內容的傳播,例如點擊誘餌(clickbait)或互動誘餌(engagement bait),這些也可能是不實資訊。

告知

Facebook 藉由告知用戶更多資訊,讓用戶決定自己應該閱讀、信任和分享的內容。

Facebook Instagram

當第三方事實查證機構對內容進行評價時,可以選擇不同的標籤,包括錯誤、偽造、部分錯誤、缺少資訊和諷刺。

在 Facebook 和 Instagram 上被標記為不實或經過偽造的內容會被標示顯眼的標籤,以便用戶可以更好決定閱讀、信任和分享的內容。這些標籤會顯示在不實或經過偽造的照片及影片上,包括Instagram 的限時動態頁面頂部,並提供 Facebook第三方事實查證機構分析的連結。若內容被評為部分不實或誤導,Facebook將標示較輕微的警告標籤。

為了幫助擴展 Facebook 第三方事實查證機構工作,Facebook使用人工智能來識別與第三方事實查證機構所評估相同或類似的內容,並自動貼上其相關標籤或減少內容的散佈。

2018 年,Facebook 推出背景資訊按鈕,以提供動態消息上文章來源的相關資訊,包括重要細節,例如文章何時被首次分享、發布者何時在 Facebook 上註冊以及該發布者其他內容的連結等。

2020 年 6 月,Facebook 推出通知視窗,用戶欲分享超過 90 天前的舊新聞時,Facebook 將提醒該用戶。

獲取可靠的資訊

Facebook 推出許多額外的措施,讓用戶對於 COVID-19 知情。

2020 年 3 月,Facebook 推出2019冠狀病毒病(COVID-19)資訊中心,該資訊中心出現在動態消息上方,其中包括衛生組織的即時更新資訊,以及保持社交距離和防疫實用文章、影片及帖文。用戶還可以透過追蹤2019冠狀病毒病(COVID-19)資訊中心,直接在動態消息中接收來自衛生組織的最新消息。至今已有超過 20 億用戶透過2019冠狀病毒病(COVID-19)資訊中心取得來自衛生組織的資源。

2020 年 4 月,Facebook 開始在動態消息上通知那些在被標籤為 COVID-19 不實資訊內容上按讚、傳達心情或留言的用戶。這些通知將用戶連結到世界衛生組織以獲取準確的資訊。根據第三方事實查證合作夥伴查核的大約 7,500 篇文章,Facebook 將平台上約 5,000 萬則 COVID-19 的內容標示警告標籤。

數碼質素計畫

Facebook 正投資一系列計畫,並與公民團體及行業夥伴合作,採取不同的措施來解決數碼和新聞質素的潛在問題。

其中一項重點計畫是專為亞太地區締造的「數碼教育計畫(We Think Digital)」。

「數碼教育計畫(We Think Digital)」是一個線上的教學網站,其中包括許多互動式教材,旨在幫助人們學習批判性思考。Facebook 與亞太地區的專家合作設計課程,目標是運用 6 種不同語言的資源,在 2020 年前於亞太地區中8個國家培訓 100 萬人。

Facebook 在旗下應用程式中的行動

Instagram

Facebook 使用影像檢測技術,來查找在 Instagram 上被 Facebook 第三方事實查證計畫闢謠的內容。一旦偵測到相關內容,將從主題標籤和探索頁面中過濾掉。Facebook也致力於採取其他措施來降低在 Instagram 上的不實資訊,包括將該內容交給Facebook的第三方事實查證人員。

不實資訊在 Instagram 和 Facebook 上的傳播方式不同,由於 Instagram 上無轉發功能,也無法分享動態消息貼文可點擊的連結。這也減少了不實資訊在 Instagram 上傳播的可能性。

Messenger

Facebook希望 Messenger 是一個安全可靠的平台,可以與朋友和家人聯繫。去年,Facebook推出許多功能,例如安全通知、雙重認證,以及更簡便封鎖和檢舉不想看到的資訊。這些新功能限制不實資訊或有害內容的傳播,提供另一層保障,Facebook認為這將幫助用戶在網路上更安全。

Messenger 內的資訊一次只能轉發給五位用戶或群組。限制轉發的數量能有效減少不實資訊和有害內容的傳播,而且這些不實資訊和有害內容,可能會對真實世界造成傷害。

Facebook 在打擊不實資訊上有許多成果,例如限制可能導致現實世界傷害的內容,或與第三方事實查證機構合作,這些都讓不實資訊不會透過 Messenger 傳播。

這篇文章 Facebook 打擊不實資訊 最早出現於 TechApple.com

繼續閱讀

最新電競產品評測

You may also like...