全球社交媒體大轉型
現在幾乎每一個人都有一個社交媒體賬號,我們每時每刻能能從上面獲得海量的信息。但是這些信息不僅僅只有正面的,還有許多負面的、虛假的,即使是成年人也難以判別真偽。因此,很多社交媒體把重心轉向了內容治理。本文作者對此展開分析,希望對你有幫助。
一場全球社交媒體大轉型運動,正在進行。
這場轉型運動的核心關乎平臺內容治理,始自2018年。悉數這一年的代表性事件,“劍橋分析”無法避開。
2018年3月,Facebook承認,英國數據分析公司劍橋分析在2016年美國總統大選前違規獲得五千萬用戶信息。而后Facebook因未能妥善保護用戶個人敏感信息等被集體訴訟,同時,美國聯邦貿易(FTC)也對Facebook展開調查。而馬克·扎克伯克本人,也因劍橋分析事件出席美參議院委員會聽證會,接受議員問詢。
無論“劍橋分析”是不是導火索,但從2018年起,治理內容生態,就開始成為大部分社交媒體的核心工作。
社交媒體上的有害內容一般包括不實信息、仇恨言論和兒童色情等。在這場轉型運動中,Facebook、Instagram等社交媒體,增設了多種功能以提升內容治理能力、對抗有害內容。這既是平臺承擔社會責任的體現,某種程度上,也是對監管力量和輿論質疑的回應。
一、對抗不實消息
“全球變暖只是謊言”“新冠病毒是人造的”……對于這類社交媒體上的不實信息,多數人已經司空見慣。
除了傳統的憑空捏造或以訛傳訛的虛假信息(misinformation),如今社交媒體上還涌現出大量的誤導性信息(disinformation)。這類不實信息往往基于政治或商業目的,摻雜某些真實的信息,從而實現更強的迷惑性,無論是平臺算法,還是普通用戶,都更難鑒別。
作為應對,全球最大的社交媒體Facebook自2016年發起事實核查計劃,至今已與全球范圍內的80多家獨立第三方核查機構合作。每當事實核查機構將平臺上的一條內容評定為“虛假”時,Facebook會大幅減少該內容的傳播,以降低其曝光率。
2021年5月,Facebook進一步推出系列措施以治理不實信息。此前,當事實核查機構認為某條帖子是不實信息后,轉發過的用戶將會收到提醒,Facebook優化了這一機制。如今,用戶可以查看事實核查機構評估該信息失實的理由,已經轉發的不實信息也會被加上標簽,提醒其他用戶這是不實信息。Facebook還會警告用戶,如果多次散播不實信息,他們的帖子將會更少地出現在其他用戶的信息流中。
許多用戶在Facebook上獲取新聞資訊并進行討論,但有一些用戶會重新分享過去的新聞信息或帖子,并將其作為新的信息,而這可能會傳播錯誤信息,或者讓人對新近發生的事實產生誤解。針對這一問題,Facebook增設了一個警告的彈窗,當用戶想要分享的內容的發布時間超過90天時,就會收到提醒。
此外,有許多用戶往往并沒有閱讀文章內容,而是在看到某個文章的標題后就轉發。這可能散播不實信息,并且僅僅依據標題就與他人展開討論,可能沒有什么意義。為了讓用戶更加負責任地轉發信息,Facebook會提醒那些沒點開鏈接就按下“轉發”按鈕的用戶:你將要分享你沒有閱讀的文章,這可能意味著在關鍵事實上犯錯。
實際上,早在2020年6月,Twitter就在其安卓客戶端試行了這一功能。Twitter產品總監Kayvon Beykpour表示[1]:
“在Twitter上,鏈接或者文章很容易被瘋轉,這可能產生強大的影響,但有時這是危險的,特別是當用戶沒有閱讀他們所傳播的內容時。這項功能鼓勵用戶在轉發之前點擊鏈接并閱讀文章。”
試行三個月后,Twitter表示,用戶在看到提示后打開文章的次數增加了40%,在轉發前打開文章的次數增加了33%。有些用戶在打開文章后最終沒有轉發,說明閱讀文章的確能讓用戶更謹慎地決定要不要轉發。
疫情背景下,社交媒體上涌現了大量與疫情相關的不實信息,造成惡劣影響,比如宣稱接種疫苗會得癌癥的“反疫苗運動”。早在2020年2月,世界衛生組織在新冠肺炎疫情報告中就特別提到,疫情的暴發會引發一場大規模的“信息流行?。↖nformation epidemic)”,即在一些事實中混入恐懼、猜測和流言,這些不實信息可能會在世界范圍內迅速傳播,影響全球經濟、政治與安全。
Facebook也針對疫情相關的不實信息推出了治理措施。在用戶準備分享疫情相關鏈接時,將會跳出一個通知,這一通知會展示相關內容的發布時間和來源,并附有Facebook的“COVID-19信息中心”鏈接,讓用戶能夠更方便地獲取權威的關于疫情的可靠信息。不過,用戶在轉發政府衛生部門和全球衛生組織(如世界衛生組織)發布的內容時將不會出現這個通知,以避免減緩可信的衛生部門的信息傳播速度。
此外,Facebook的算法系統將會刪除被醫療專家標記為失實的疫情相關信息,從疫情暴發到2021年4月,Facebook就刪除超過1200萬條和新冠疫情或疫苗相關的不實信息。[2]
二、治理仇恨言論
除了虛假信息,如何治理仇恨言論,也是社交媒體平臺面臨的一個棘手問題。根據Meta(Facebook于2021年改名為Meta,旗下包括Facebook和Instagram等產品)的定義,仇恨言論包括暴力或非人性(dehumanizing)的言論、低劣的聲明、呼吁基于某些特征而排斥他人,這些特征包括種族、宗教信仰、性取向、性別和疾病等。[3]
Instagram在2021年增設了一系列功能以治理仇恨言論。其中有一個功能被命名為“limits”,當用戶啟用后,系統會自動隱藏來自不關注你的人,或最近才關注你的人的評論和私信請求。
根據Instagram的說法,開發這個功能是因為創作者和公眾人物會收到大量來自他們不認識的人的評論和私信,其中可能含有大量的垃圾或謾罵信息。但是許多用戶又不想完全關閉評論和私信功能,仍然希望與粉絲互動聯系,因此可以限制那些不是粉絲或最近才成為粉絲的人發布評論和私信。
當有用戶試圖發表攻擊性評論時,Instagram也會顯示警告提醒:如果他們堅持發布,他們的評論可能會被刪除或者隱藏。Instagram發現這些警告的確能夠阻止用戶發布攻擊性言論。根據統計,在一周的時間內,Instagram平均每天顯示約一百萬次警告,在大約50%的時間里,用戶根據這些警告重新編輯或刪除了評論。
網絡暴力行為的產生,多是由于情緒驅動的“一時之快”,盡管一個警告提示并不能真正阻止用戶發布惡意言論,但它讓發表評論多了一個步驟,減少了因沖動而言語攻擊他人的可能。
此外,Instagram還推出了一個叫“Hidden Words”的功能,開啟這一功能后,系統可以自動過濾攻擊性詞語和emoji,并將其收集到隱藏文件夾中,用戶可以自己選擇是否要查看這一文件夾。這一功能也可以幫助用戶過濾那些可能是垃圾郵件或低質量的私信請求。Instagram表示,將持續更新擴大自動過濾的攻擊性言論、主題標簽(hashtag)和emoji的清單。
三、內容治理的難度
內容治理已經成為全球共識,無論是各國政府、公眾抑或是社交媒體本身,都認為有必要處理平臺上的假新聞和仇恨言論等有害信息。
但是,處理有害信息之前,首先需要確定哪些信息屬于有害信息。這并非易事,有時還存在巨大爭議。
例如,諷刺性的信息和攻擊謾罵的區別是什么?名人轉發假新聞和普通人轉發假新聞是否需要區別對待?這些問題相當棘手。即便是兒童色情這種全球公認要審核刪除的信息,也存在模糊地帶。
2016年,挪威作家Tom Egeland在Facebook上傳了一張經典的越南戰爭照片,照片中一個赤身裸體的女童在哭著逃難,Facebook隨后刪除了這張照片,引起軒然大波。在強烈的公眾呼吁之下,Facebook后來又恢復了這張照片。
2020年,Facebook成立了一個監督委員會(Oversight Board),這一委員會將獨立審理具有代表性的平臺內容審核案例,決定哪些信息是違規需要刪除處理的,哪些信息又是可以公開傳播的。
這一監督委員會的成員背景多元,包括來自多個國家的法學教授和政府高官等。用戶可以直接向這個監督委員會投訴,Facebook也可以直接向委員會提交具體案件。該委員會審理的最著名的案件,莫過于特朗普賬號被封禁一案。
盡管歐美輿論對Facebook等社交媒體口誅筆伐,但這些社交媒體已經在歐美地區提供了遠優于其他地區的服務。西方的社交媒體在非洲、中東和南亞等地區雖然有大量的用戶,但并沒有實現與歐美地區同等質量的監管力度。
2021年,Facebook前數據科學家弗朗西斯·霍根(Frances Haugen),向美國證券交易委員會和《華爾街日報》披露上萬份Facebook內部文件。文件顯示,Facebook已經意識到自身在全球許多較為落后的國家沒有承擔足夠的責任。
美國以外的用戶占Facebook總用戶數的90%以上,但負責內容治理的工作人員,只有13%的時間花在這些地區上。Facebook服務于全球160多種語言的使用者,但其僅研發了針對英語等歐美主流語言的內容審核系統,這意味著其余很多語言的違規內容難以被系統識別和刪除。
例如在2020年底,Facebook的一份內部報告顯示,Instagram上只有6%的阿拉伯語仇恨內容能夠被系統試別;另一份報告則顯示,30天內在阿富汗發布的仇恨言論中,僅有0.23%被Facebook的系統自動刪除[4]。
為了應對歐美政府和媒體施加的壓力,Facebook等社交媒體持續推出各項內容治理措施,但這些措施也是地區性的。Facebook內部清楚知曉自己的產品在非洲和中東等地被用于傳播極端言論、人口販賣、種族清洗等,但并沒有付出相對應的治理力度。
不過,僅憑Facebook等社交媒體自身的努力,的確也難以應對全球涉及如此之多語言、民族和宗教的問題。
技術發展給內容治理帶來了更大的挑戰。實際上,即便對有害信息存在明確的標準,即使平臺有著強烈的治理決心,通過人工或技術手段甄別有害信息的難度也不低。
如今社交媒體上的許多內容,并不是真實的用戶創造發布的,而是由虛假賬號批量制造生產。這些虛假賬號又被稱為社交機器人(social bots),它們可以通過算法自動發布內容并與其他賬號互動。這意味著,有些賬號雖然沒有散播不實信息,但因為這些賬號本身是虛假的,是被用來從事宣傳的,也需要被處理。
有研究發現,2016年美國大選第二場辯論中,Twitter上親特朗普的2400萬多條推文有三分之一由社交機器人發出,支持希拉里的72000條推文中,社交機器人生產的內容占四分之一。[5]
社交機器人還會隨著社交媒體上的重大事件更替,刪除其先前的推文、改變顯示用戶名后以新面目出現。盡管Twitter和Facebook大力打擊虛假賬號,但虛假賬號依然泛濫。在近來伊隆·馬斯克暫停收購Twitter事件中,虛假賬號數量就成為了焦點。
在內容治理方面,社交媒體也不斷面臨新的問題。比如在虛假賬號之外,深度偽造等技術給內容治理帶來更大的挑戰。這意味著,大量的有害信息有著以假亂真的效果,并且這些有害信息的生產者不是用戶,勸阻用戶的舉措僅僅能起到減緩有害信息傳播的作用。提升內容治理水平,需要社交媒體開發更先進的技術,魔高一尺,更需道高一丈。
四、無法退回的昨日世界
Facebook于2004年上線,至今仍然未滿20年。在這十數年間,社交媒體讓地球村成為了現實,讓人們得以與在現實中永遠不會相識的陌生人交流。
社交媒體發展初期,人們歡呼于社交媒體如何降低公共領域的表達門檻,人人都有麥克風。但近年來,無論是關于仇恨言論、虛假信息泛濫的擔憂,還是針對信息繭房、群體極化的警惕,都體現了人們逐漸發現并試圖理解社交媒體的負面效應。
內容治理已經成為社交媒體不得不直面的問題。回頭看,這場全球社交媒體的轉型運動,就始于對這種壓力的回應。
顯然,我們永遠無法退回沒有社交媒體的世界。如果未來不存在社交媒體,那也只可能是出現一種更有吸引力的替代品。如今我們只能著眼于最小化社交媒體的負面影響,探討如何在技術和產品層面改進社交媒體,如何明晰內容治理的邊界,這將是一個漫長的過程,更需要像此前高速發展期去研究用戶需求一樣,不斷改善社交媒體的功能與用戶體驗,創造更友善的社交媒體環境?;蛟S這才是這場“轉型運動”的最大意義。
引用/注釋:
[1]https://twitter.com/kayvz/status/1270788548002631681
[2]https://www.facebook.com/business/news/how-facebook-addresses-covid-19-misinformation
[3]https://transparency.fb.com/data/community-standards-enforcement/hate-speech/facebook/
[4]https://www.theatlantic.com/ideas/archive/2021/10/facebook-failed-the-world/620479/
[5]Stieglitz, S., Brachten, F., Berthelé, D., Schlaus, M., Venetopoulou, C., & Veutgen, D. (2017). Do Social Bots (Still) Act Different to Humans? – Comparing Metrics of Social Bots with Those of Humans. HCI.
作者:梁曉健 王健飛,編輯:王煥超,來源公眾號:波動刻度
原文鏈接:https://mp.weixin.qq.com/s/KxbFfsiRdjqwJ4AdxBryXw
本文由@波動刻度 授權發布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于CC0協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務
負面的、虛假的社交信息,即使是成年人也難以判別真偽。
就比如一些無良媒體,為了吸人眼球,捏造事實,誤導聽眾