算法與用戶:地主與農奴
在數字化時代,算法正以前所未有的方式影響著我們的信息接收和認知構建。本文探討了算法如何通過構建“信息繭房”來控制用戶的信息流,進而影響用戶的思想和行為。我們將分析算法的不同版本及其對社會各群體的影響。
前不久,中央網信辦等四部門聯合發布《關于開展“清朗·網絡平臺算法典型問題治理”專項行動的通知》,核心問題就是構建“信息繭房”防范機制,提升推送內容多樣性豐富性。
“信息繭房”是哈佛大學凱斯·R·桑斯坦(Cass R. Sunstein)教授在其《信息烏托邦》一書中提出的概念:它是一個溫暖、友好的地方,因為這里都是自己喜歡看到和聽到的東西,對于觀點話題的討論也不過是自己的回聲。
也就是說,平臺算法利用用戶的點擊、瀏覽和搜索歷史,為用戶分配其中一部分信息,再減少、忽略用戶對其它信息的接觸,構建出一個信息封閉的“黑箱子”:
你看到的,就是算法想讓你看到的;你的想法,也是算法潛移默化影響你的。
那么,在這個“黑箱子”里,你害怕嗎?
一、算法也是不斷進化的
在互聯網信息大爆炸的時代,知識已經變成俯仰可拾的信息流。
用戶的難題不再是“在哪去學習知識”,而是升級為“如何判斷知識的真假”,這也給了算法的施展空間。
信息繭房形成的“回音室效應”,哪怕你有再小眾的愛好、再離譜的想法,都能在算法的分配下,找到與你觀點相近的伙伴。
你點贊的圖文和短視頻,都是自己的“回聲”。
每個人都看到他們樂意看到的東西,每個人都能在小圈子里保持“自由”和“快樂”。哪怕這個“自由”和“快樂”只是算法圈養你的柵欄。
更可怕的是,算法是會進化的。
算法1.0版本,是用戶主動去選擇和收集,算法根據協同過濾(Collaborative Filtering),挖掘用戶歷史行為,發現用戶的喜好偏向,并預測用戶可能喜好的產品進行推薦。也就是購物平臺常見的“猜你喜歡”功能。
等到了算法2.0版本,就有大數據的加持,基本無需個人收集和選擇了,直接由機器按你的偏好推送。
不論你是什么種族、什么階層、什么群體、什么樣的觀點,算法機器只讓你看到你想看到的。每個人都覺得自己觀點是世界上最正確的,充分滿足并安慰你的精神需求。
當然,算法2.0版本不會承認自己打造出來一個“信息繭房”,只會說這是“定制化觸達/垂直化推薦/精準化投放”的結果,是合理合法的商業工具。
來源:網絡
抖音/快手的興趣推薦,看似中性的算法,實際上對不同群體的影響是截然不同的。
對于大部分“興趣廣泛”的用戶來說,其被推送的內容或許是寵物、旅游、數碼等等,當然也包括“黑絲女”和“腹肌男”。至少在當下平臺環境里,后者比例要遠大于前者。
對于現實生活比較單一、生活內容重復、自控能力不強、信息獲取渠道單一的用戶來講,這樣的算法推薦對他們的影響或許是極其負面的。
并且這類人群覆蓋面極為廣闊,有藍領、有中老年人、也有低齡階段中小學生。
他們在算法之下,他們很容易沉迷在“黑絲女腹肌男”繭房之內,甚至接收到“不合時宜”的信息。
比如,銀發族困于養生、健康和短劇,相信土豪真的會愛上保潔阿姨;
藍領們消耗一天體力后,躺在出租房里沉迷擦邊直播間,花光工資也要當榜一大哥;
甚至還有一些中小學生們,過早接收到不應該是當齡該看的內容。
這些高密度人群如果被算法“毫無感情僅憑興趣”的推薦,將會帶來一連串社會性問題。
二、紅藥丸?還是藍藥丸?
如果說,你只能活在自己想要的世界里,很多人覺得無所謂,不就是“奶頭樂”嗎?我就愿意讓自己輕松一下,逃避一下殘酷的現實。
那如果說算法會影響到你的認知呢?
所謂的“認知”,其實是信息量+處理信息的能力。你信息攝入的越多,那么支撐你認知的知識體系就越有力。
如果你的信息攝入是充滿“誤導”的呢?
比如,現在打開抖音/快手等短視頻App,刷出10條短視頻內容。如果10條里面有9條,都是和LGBT運動相關,那你會不會認為LGBT已經是社會主流的性取向?異性戀其實才是性少數群體呢?
如果你完成對這些信息的攝入,形成了認知,恭喜你,那么你就迎來了算法的“下半場”:你如果否定它,就要推翻你的全部認知。
來源:倫敦藝術大學UAL實驗短片
有這么一個諷刺冷笑話,很適合描述現在的算法。
“小學時候同學們都愛看《西游記》,大家都說唐僧袈裟是黑色的,有個同學強烈反對,非要說是紅色的,氣的班上的同學打了他一頓,后來他哭著把我們帶到他家里,我們才赫然發現,這個世界上原來還有彩色電視機?!?/span>
是的,當你認為“黑袈裟”是真理的時候,“紅袈裟”就是異端、另類、是要被燒死的人,對不同聲音充斥著排斥,甚至敵視。
如果要讓“黑袈裟”知道真相,就要把他們的認知全部擊碎,掀開頭蓋骨,才能真正知道真相到底是什么。
就像是《黑客帝國》,面對舒適的算法世界,以及殘酷冷漠的真實世界,那你會選擇藍藥丸,還是紅藥丸?
我相信大部分人都會選擇一切迎合自己的算法世界,哪怕它支配了你的全部信息。
三、地主還是農奴?
法國的經濟學家塞德里克·迪朗(Cédric Durand)寫了一本書叫《技術封建主義》,他將算法背后的企業視為“地主”,用戶視為“農奴”。
迪朗認為,算法和數字技術的應用,將用戶變成了數字農奴。算法通過分析用戶數據,推測用戶行為,并將其轉化為利潤。用戶在算法的統治下,失去了自主權和控制權,按照算法的邏輯進行行動。這種算法統治的現象,類似于封建社會中農民對土地的依附,將用戶束縛在數字平臺的“領地”之中,無法逃脫算法的控制。
“地主和農奴”最典型的案例,就是外賣騎手和網約車司機。
他們覺得自己工作很自由,不受老板的監管,想幾點工作就幾點工作,一切完全取決于自己,好像獲得了某種自主權。
但其實,奴役者只不過從“企業老板”轉變成了“企業工具”,除了遵循平臺算法給出的訂單、路線與價格,他們別無選擇。
社會的輿論壓力,也被巧妙的轉移,變成“乘客和司機”“顧客和外賣員”之間的矛盾,似乎一切的訂單、路線與價格并不是由算法自主生成的一樣。
一切又回歸到迪朗和《技術封建主義》的核心主題:我們每個人在社會互動中形成數據不斷成為算法優化與決策的“養料”,而社會互動又在被算法的結果“操縱”。
如果你問如何才能擺脫算法的圈禁?
那么只有將選擇的權利交付于用戶,讓他們主動去選擇,而不是被動去接受所謂的“定制化觸達/垂直化推薦/精準化投放”等商業行為。
同時,最后還想重復問一遍:
“你是選擇藍藥丸,還是紅藥丸?”
作者|孫鵬越
編輯|大 風
本文由人人都是產品經理作者【鋅財經】,微信公眾號:【鋅財經】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協議。
- 目前還沒評論,等你發揮!