算法之「惡」:如何掙脫推薦系統的「囚禁」?

0 評論 2393 瀏覽 20 收藏 18 分鐘

你是不是也有過這樣的經歷或感受:只要刷起短視頻軟件,不花上一定時間消磨在其中,你滑動的手指好像就停不下來?而在這現象背后,可能是“推薦系統”和“算法”在讓你“上癮”。具體如何解讀推薦系統的存在和作用?一起來看看作者的分析。

不知道你是不是跟我一樣,特別喜歡刷抖音,經常一天要刷個把小時,無論是通勤路上,還是工作間隙,一有時間就會刷起來,在自己不間斷發出的「哈哈」和「臥槽」聲中逐漸沉迷,無法自拔。

不過可能不只你我,截至2022年第四季度,抖音日活用戶超7億,人均日使用時長高達140分鐘,換句話說,每天有7億人,平均刷2個多小時短視頻,這還不算快手、微信視頻號等其它平臺。短視頻到底有什么魔力,能夠讓我們如此「上癮沉迷」?

本文將從推薦系統實現原理的角度剖析短視頻「上癮」原因和不良影響,以及對我們該如何應對。

一、為什么會對短視頻「上癮」?

短視頻讓我們上癮的魔力歸根結底就是:太好看了!非常符合我們每個人的觀看內容偏好,就像預言家一樣,總能精準的知道,我們會喜歡什么樣的內容。

能達到這樣的精準效果,短視頻平臺靠的主要是:海量的UGC視頻內容供給,巨量的用戶及行為數據,智能推薦算法。這三者組成一套內容推薦系統,做到對內容和人的充分理解,為我們提供精準的內容消費預測和候選推薦。

這就像你的朋友們給你推薦電影,朋友A自身看過很多電影,同時也大概知道你喜歡或者討厭什么類型的電影;另一個朋友B沒怎么看過電影,跟你也不太熟悉。那么朋友A更大概率能給你推薦符合你口味的電影。

這套推薦系統也像是你的一個「朋友」,只不過他看過數百億乃至千億數量的短視頻,同時也了解你幾乎所有的畫像信息(年齡/性別/收入/位置/興趣等)和此前你對視頻做過的所有行為數據(完播/點贊/評論/關注/轉發等),到今天為止,這個「朋友」找到符合你口味短視頻的概率非常嚇人,接近100%,并且幾乎是在任何你打開短視頻app的時候。這個「朋友」具體是怎么工作的呢,能有如此恐怖的效果?

內容推薦系統的工作流程大概如下圖所示:

算法之「惡」:如何掙脫推薦系統的「囚禁」?

推薦算法的流程,簡單理解可以分為召回,粗排(序)和精排(序)三個步驟。召回就是從我們的海量內容庫中,按照各種理由找到部分作品進入用戶的候選作品池,這些召回理由有很多,比如當前最熱的作品,比如你的朋友點贊過的作品,等等。

粗排主要是做一些簡單粗略的排序,用于在召回后減少候選池的內容量級,比如各個召回源的TOPK排序,粗排會將候選池截斷到一個可控的量級(一般到千的量級),不然精排階段會非常耗時,精排一般都采用模型進行排序,比如LR(線性回歸),LR+GBDT(線性回歸+樹模型),FM(因子分解模型),DNN(深度學習模型)等,排序后候選內容池會到百量級。

這些排序策略和模型的輸入都是用戶的各種靜態和行為特征(也就是圖中的用戶特征和用戶行為日志,比如你的地理位置信息、你對內容的點贊、評論等行為)以及內容的特征(比如,內容的標題、分類、基于畫面理解提取的特征向量等),輸出就是你對某一個候選視頻的各種行為目標的預測,比如,多大概率會看完、多大概率會點贊等等。

基于這些目標預測,最終會綜合成一個唯一排序分值,決定最終推薦你的候選視頻的順序。然后會下發到你的手機App上,讓你能刷到,你刷到之后的所有后續對于視頻的行為,也會通過日志實時上報和進行計算,再更新相關的所有數據,用于迭代下一刷視頻的推薦。

想必到這里你會發現,推薦系統是一個動態循環,不停的基于內容的更新,用戶的行為反饋進行迭代和更新,保證最終預測準確的概率逼近100%。(更詳細的推薦系統介紹,感興趣的可以看我之前寫的一篇文章運營必知「推薦」二三事)這套系統,可以很好地提升你消費內容的體驗,讓你對每個候選視頻都很滿意的看完,甚至產生互動行為(點贊評論),不停的刷下去,因為這套系統優化的目標就是讓你做這些。

有沒有突然感覺后背發涼,表面上看,推薦系統似乎為我們消費內容提供便捷的服務,但從推薦系統的角度看,我們的行為似乎是被「他」掌控的。

推薦系統比我們自己都更了解自己,當我們對短視頻「上癮」后,我們的那些自由的意志,我們對世界的認知和各種決策是不是也會被這套機器系統所左右?如果有人惡意的使用這套系統,我們會不會被潛移默化的植入某些想法(洗腦),進而影響我們在現實世界的行為?

答案是肯定的!而這一切的原因都是來自算法的系統性偏差。

二、算法的系統性偏差(Bias)

通過前面的介紹,我們知道推薦系統的工作流程,是「用戶」通過與內容的交互,產生了「數據」,這些數據再被推薦「模型」用于訓練和預測用戶后續的內容偏好,「模型」預測的結果再推薦給「用戶」,進一步影響用戶未來的行為和決策。由此可見,推薦系統是由用戶(User)、數據(Data)、模型(Model),三者相互作用產生的一個動態的反饋閉環。如下圖所示:

算法之「惡」:如何掙脫推薦系統的「囚禁」?

在這個循環中,每一步推薦系統都會產生一定的偏差(Bias)。在用戶(User)和內容交互產生數據(Data)的過程中會產生如下Bias:

  • 位置偏差(Position Bias):位置偏差在搜索系統中是一個經典并持續存在的偏差,同樣在推薦系統中也會存在,用戶更傾向于和位置靠前的內容進行互動。尤其會對“用戶點擊行為”作為正例信號進行學習的模型,位置偏差會在訓練、評估階段產生錯誤影響。
  • 觀測/曝光偏差(Observation Bias/Exposure Bias):因為僅有一部分特定內容曝光給了用戶,沒有曝光的內容卻也不能直接認為是用戶不感興趣,用戶用戶自身的喜好(比如主動搜索,點擊等)或者所處的地理位置,興趣圈層,都會導致部分內容更容易曝光。
  • 選擇偏差(Selection Bias):用戶傾向于給自己喜歡或者不喜歡的內容進行反饋,那些喜惡程度不高的一般就不會有反饋,這就會導致,可觀測到的互動反饋數據并不是所有內容的代表性樣本。換而言之,這部分數據是“非隨機缺失”,這就會導致后續的內容更偏向兩個極端,完全不給討厭的內容,只給超級喜歡的。
  • 從眾偏差(Conformity Bias):用戶對于內容的評價和反饋會和大眾趨同,比如一個幾萬贊的視頻,比一個沒有贊的視頻更容易讓用戶點贊。

在數據進入模型的階段,因為模型有各種假設,用于提升模型的泛化能力,例如我們常用的奧卡姆剃刀原理、CNN的局部性假設、RNN的時間依賴假設、注意力機制假設等等,通常這些是有利的,但是也會造成也會造成歸納偏差(Inductive Bias)。

模型輸出結果給到用戶的過程中,推薦結果常見的偏差有:

  • 熱門偏差(Popularity Bias):熱門的內容獲得了比預期更高的熱度,長尾物品得不到足夠曝光、馬太效應嚴重。
  • 不公平性(Unfairness):這個偏差的本質原因是數據的有偏,會帶來社會性問題(年齡、性別、種族、社交關系多少等歧視)。不公平性更多是由于系統數據分布不平衡造成的,例如某個基本由年輕用戶組成的內容平臺較難對于老年用戶的行為進行建模,系統推薦出的視頻會更傾向于有年輕化。
  • 內容偏差(Content Bias):內容本身也存在巨大的偏差,雖然當前短視頻平臺有著海量的內容,但這些內容中,品類和主題分布上一定是不均勻的,而且會存在各種導向的內容,有的甚至是欺騙性的內容,比如我們經??吹降臉祟}黨,夸大性內容和謠言,這些內容上的偏差對于推薦系統來說是很難甄別的。

上述的這些偏差,在推薦系統的反饋循環中會不斷被加?。˙ias Amplification in Loop),模型在存在偏差的歷史數據中,通過不斷的迭代學習,讓偏差進一步加深,導致推薦生態逐步惡化。有些偏差目前是有辦法解決的,比如位置偏差,但有些偏差,比如內容偏差,不公平性,這些都是固有數據導致的,難以完全解決。

值得注意的是,雖然偏差在不斷加深,但用戶的使用時長卻隨著明顯增長,當我們嘗試去解決一些偏差的時候(Debias),大概率都是會帶來用戶使用時長的下降,特別是在比較短的周期內,這像極了毒品上癮后的戒斷反應。造成這種「戒斷反應」的本質原因是因為偏差的產生,基本是來自用戶自身的偏見,而推薦系統在不斷的強化這個偏見。

這種偏見的強化,會給我們的認知帶來很多不良的影響:

  • 推薦系統對于偏見的強化,會打破我們在強化現有想法和獲取新想法之間的認知平衡,它使得我們周圍充滿著我們熟悉且認可得想法和觀點,讓我們對自己的想法過于自信,大家應該都有類似的例子,我們很容易在短視頻上扎堆看到跟你想法一致的視頻,很多內容創造者也在刻意的生產迎合大家的內容,會讓你覺得自己十分的正確,使我們沉浸在同質化的信息和觀點之中,導致人對不同的觀點、文化和思想缺乏了解。
  • 推薦系統會把我們的注意力限制在一個非常狹窄的領域內,也就是人們常說的「信息繭房」,限制我們探索到新內容的可能,甚至會帶來意識形態的偏見,導致人的思想收到限制,有可能使人深陷分裂和對立的泥淖之中。大家看看相同的內容,在抖音下的評論和在twitter下的評論,就大概能理解這種對立。
  • 在有偏的內容中,我們接觸到的信息量有限,缺乏全面的信息支持,容易誤導判斷力,做出不準確的判斷和決策。特別是很多虛假和錯誤的引導內容,更大概率的造成我們的判斷錯誤。大家自己回想一下,那些廣為流傳的謠言。

推薦系統,仿佛在悄悄地編織一個「囚籠」,讓我們在手機屏幕的方寸之地沉迷且享受,消磨著時間。幸運的是,我們還有自醒的可能,想必你也曾在刷了幾個小時短視頻后,陷入深深的不安和煩躁。那么我們如何才能掙脫推薦系統對我們的「囚禁」呢?

三、如何掙脫推薦系統的「囚禁」?

其實掙脫推薦系統最簡單的方法就是,卸載掉這些個性化推薦的內容app。網信辦在2021年8月份提出,并于2022年3月1日正式施行的《互聯網信息服務算法推薦管理規定》中直指算法推薦功能,提出算法推薦服務提供者應當向用戶提供不針對個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。我們可以看出來,國家也意識到了算法的不良影響,并在嘗試幫我們解決這個問題。

但我覺得卸載或者關掉所謂的推薦系統,不是對抗算法「囚禁」的好方法。我們身處信息爆炸的時代,推薦系統本身是一個為我們篩選和過濾的工具,而讓算法能「囚禁」我們的原因是我們喪失了自主思考的習慣,選擇部分甚至無條件的相信他們提供的內容。

想要對抗推薦系統的「囚禁」,只能是我們自我覺醒,拿回信息選擇的主動權。

  • 多元化的信息源,不要只局限于特定的平臺或者特定的社交圈子,可以通過關注不同的社交媒體賬號、閱讀不同領域的文章、參加不同類型的線下活動等方式獲取多元化的信息。多主動尋找不同觀點,善用搜索工具和一些信息聚合工具,不是一味的僅僅接受信息,這可以有效的幫助我們打破「信息繭房」,發現更大的世界。
  • 培養批判性思維:對獲取信息進行分析和評估,不要輕易相信和傳播未經證實的消息。對于重要的信息,一定要查證信息的來源,并且比較不同來源的信息,要能夠區分什么是事實,什么是觀點,分析信息中的邏輯,從多個角度思考問題,避免受到單一思維模式的影響。有很多介紹批判性思維的書和文章,大家有興趣可以看看。

最后,借用Neil Postman(尼爾·波茲曼)在《技術壟斷:文化向技術投降》書中說的一句話作為結尾:「每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產物。

我想推薦系統亦是如此。

主要參考資料:

  • Bias and Debias in Recommender System: A Survey and Future Directions(https://dl.acm.org/doi/abs/10.1145/3564284)
  • 《推薦系統實戰》項亮
  • 推薦生態中的bias和debias (https://zhuanlan.zhihu.com/p/342905546)
  • 算法社會的“囚徒風險”(https://tisi.org/19332)
  • Support byChatGPT

專欄作家

南村小付,微信公眾號:南村小付,人人都是產品經理專欄作家??焓指呒壆a品經理,曾任職阿里,歡聚時代,7年互聯網產品設計運營經驗。

本文原創發布于人人都是產品經理,未經許可,禁止轉載

題圖來自Unsplash,基于CC0協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!