算法之下,以人為“資本”

0 評論 2740 瀏覽 8 收藏 25 分鐘

編輯導語:算法能幫我們找到下一本要閱讀的書,找到想要買的東西,找到想吃的菜品,但算法并不是萬能的,它也存在力所不能及的地方。算法無法替代純粹的點對點溝通、情緒聯系、個人體驗,隨著越來越多的業務可以“被發現”,最佳的平衡就是用算法收集、整合、過濾信息,然后將它與人力結合。

購物APP首頁的衣服包包,好像昨天才看過;外賣每次推薦的美食,是最近一個周都在點的;昨天點贊過的某個網紅,今天仿佛多更了十條短視頻……

于是,某一天,有人突然開始思考,衣服可不可以換種風格,外賣可不可以換種美食,新聞可不可以多一些種類。

要改變算法對個人的固有定位很容易,多搜索一些其他關鍵詞就可以實現,但現實是很多人并不會刻意去改變這些東西,只會在不斷接收類似推送時抱怨一句:怎么還是這些。

只有實在厭煩了,才會選擇“不感興趣”,但這樣做的收效并不大。

毫無疑問,算法為大眾生活和商家都帶去了便利,只是在雙方逐利的過程中,作為消費者的用戶反而越來越成為可量化的個體,挖掘個體的本能喜好也成為了算法操縱者們最大的目標。

為了實現這個最大目標,運營商將用戶幻想成一個容器,既要填充其空間,也要填充其時間。

算法和大眾生活共棲共生,為用戶提供個性化定制的服務,但是算法也用娛樂化和過載的信息吞掉了我們的時間,用戶的視野可能會隨之變窄。所以,到底是個性化還是重新塑造?這個問題值得深思。

最重要的是,用戶只能看到算法的結果,看不到過程。用戶端一頁一頁的推送,看起來都是用戶自行選擇的結果。

以前,數據是一種資源和財富,但是演變至今,數據的權力屬性在擴大,算法在數據成為權力的過程中,顯然充當了幫手。

大數據殺熟拼命搶奪交易剩余,泰勒制扎根信息時代,為了更高的效率和更低的成本,一些行業變成流動的血汗工廠。沒有人料到,在一個史上信息最為公開的時代,更多的人被信息不對稱所困住,成為了商品。

以前段時間廣泛討論的“騎手”為例,無論是將矛頭對準互聯網公司,還是將責任轉嫁于消費者,都沒有辦法解決騎手真正的問題,因為沒有人認為自己該為這事負責。

一方選擇利益出讓,只會讓另一方更加肆無忌憚。

從亞馬遜的差異化定價試驗開始,掌握大量隱私數據的公司們就開始頻繁陷入濫用市場支配地位的嫌疑中,而且這種質疑即便被證實也無法得到徹底解決,因為技術不過是一面鏡子,每一個被薅羊毛的人都在充當鐮刀手。

法國詩人波德萊爾《惡之花》里面的幾句詩倒是很應景:我是傷口,又是刀鋒;我是耳光,又是臉面;我是四肢,又是囚車;我是死囚,又是屠夫……

在一個提到隱私就人人自危的年代,指責算法只擁抱人類的動物性,追逐本能喜好,而不講究高級目標,是一件十分理想主義甚至天真的事。畢竟即便你為我定制高級目標,我又如何放心你給的高級目標沒有暗含某種交易呢?

一、算法猜心計:想要還是應該要

當下的算法邏輯主要是圍繞用戶“想要什么”而存在,猜測用戶想要得到什么,也成為了算法的主要目標之一。

然而目前一切系統都還停留在初級階段,能夠識別簡單的好惡,卻解讀不了用戶的深層次需求。當然,對于背后的操縱者來說,深層次的需求可能并不重要,因為只有激發動物性才能讓人不斷沉迷。

那對于用戶而言呢?是否一定要追求更高級的目標,而放棄即時的快樂?當然不見得,個體無論是要追求片刻的享受還是追求長遠的理想,都值得尊重,只是當這件事放到群體中來看,態度就很值得商榷了。

支付手段的改變,使得更多的人花錢如流水;短視頻的興旺,造就了“網上十分鐘,人間倆小時”的錯覺;本地生活的激烈競爭,使得外賣不斷壓縮送達時間。于此,市場得出了一個結論:用戶追求更快、更爽。

結論是天衣無縫的,鮮有人會反駁,因為這是生活正在變美好的鐵證??纱蠹覟榱诉@種便利而付出的代價也是巨大的。明明就想點個外賣而已,卻被要求提供通訊錄權限,明明只是想刷個短視頻而已,卻被迫接受了大量“可能認識的人”推薦。

在隱私這件事上,用戶很多時候不是開明,只是沒得選,因為不授權便不給用。一個人的隱私數據或許沒有價值,但是當這些數據變得龐大時,就會成為互聯網公司的核心資產,其價值難以估量。

有視頻博主“郭拽拽呀”親身體驗,只花500元就能查到一個人的家庭全員戶籍信息,此外,查名下房產1100元,飛機票(火車票)40元,移動電信定位1500,聯通定位1200,開房記錄600……

你永遠無法想象自己在互聯網中,裸奔成了什么樣子,即使你平時很注意保護隱私。而就算按《網絡安全法》中最高刑罰100萬來計算,違規成本也十分低。

你可能不止一次地發現,上一秒才和朋友聊到某種產品,下一秒打開購物APP,就能看到很貼心的推薦,算法加持下的廣告,可能比你的家人、戀人還要了解你。

這種精確和貼心也成為了互聯網公司兜售廣告的利器,這些公司也終于通過數據收集紛紛成為了“廣告巨頭”。

算法的確可以影響消費者的決策,但算法越是便利,背后的黑暗面也就越大。如果說侵犯隱私是黑暗面之一,那將人不斷動物化便是另外一個黑暗面。

不斷開局打游戲和在直播間下單的年輕人和沉迷短視頻的爸媽沒有什么區別,防沉迷模式等于為羊群設置的木柵欄,攔不住真正想要偷羊的人。

人們不斷在互聯網中尋找快感和即時滿足,很符合動物的習性。動物沒有高級目標,但社會屬性的人更追求高級目標。在“想要”和“應該要”之間搖擺,相當于在動物性和社會性之間猶豫,人沒有辦法舍其一,而且很容易在各種誘惑中偏向動物性。

將進化中的人類導向動物世界,或許是資本逐利的結果,但將一切總結為“算法沒有價值觀”未免輕率,畢竟,算法背后的人應該有價值觀,這種價值觀建立在人性的基礎上。

二、算法不可算:到底誰定義了誰

和算法停留于填鴨式內容轟炸中一樣,智能化只是停留在自動化的層面。然而強大的智能化系統需要精細的算法來支撐,算法的初級狀態也決定了智能化生活的局限。

恰恰正是這樣初級狀態的算法及智能化,侵占甚至操縱了很多人的生活。由人制定的算法規則,最終卻用公式定制了“人”。

所謂個性化,不如說是算法規定的標準化。用新的關鍵詞搜索去覆蓋原有的標簽,得到的其實是另外一種標準化。

人之所以為人,便在于無法標準化,能標準化的只能是物品。物品沒有未來,但人可以有,只是基于過往痕跡而給予服務或信息的算法,算不出未來是什么。

表面上看起來,算法規制可以做出精準的行為預測,也能為使用者提供良好的干預機制,但是普通用戶,例如騎手,在算法面前卻沒有任何議價能力,只能被動接受系統所給予的一切標準化規則。

沒有消費者覺得自己應該為騎手負責,盡管互聯網大廠是消費者選出來的優勝者。

因為這事找消費者沒有用,只能將責任拋之于大企業身上。企業則選擇讓算法決定更多的東西,但算法只捕獲人的動物性,久而久之人也就成為了被算法重新定義的人。

人們對算法寄予厚望,但如果算法成為另一個“人”,甚至“超人”,將是一件十分危險的事。

頻繁的自動駕駛車事故,反映出了一個很基本的事實,不是車不夠智能化,是人高估了算法的學習能力,太將機器“人化”的結果就是人被機器“物化”。

2017年2月16日,歐洲議會投票表決通過《就機器人民事法律規則向歐盟委員會的立法建議[2015/2103(INL)]》。建議主要考慮賦予機器人法律地位,在法律上承認其為“電子人”(electronic person),引起了巨大爭議。

機器人雖然至今沒能取得法律人的地位,但是人們卻已經將機器人背后的算法“人化”了,這個無形的機器人,通過算法工程師的雙手,已經控制了大部分的自然人,這個角度而言,算法似乎比機器人更值得警惕。

同時,未來的失控是人預料不到的。Facebook創立之初,扎克伯格也沒有想過未來可以通過這個軟件操縱選票。

硅谷精英們深諳手機的魔力后,最終選擇了將自己的孩子隔離在手機之外,甚至興起了細分的保姆職業,她唯一的任務就是不讓孩子看到手機。

可惜身為普通用戶的大多數,并沒有辦法深入了解自己是如何成為商品,擺在算法公式中的。他們唯一的選擇只不過是在看到討厭的內容時點擊“不喜歡”,而這對于不斷刷存在感的算法來說是杯水車薪。

用戶看似在參與個性化定制,實際上是在不斷標準化,最后,經過算法塑造的“新人類”終于完全符合商業需求。

三、糾偏偽命題:無人幸免遇難

在《三體》中,人類與三體人最大的區別在于,人類雖然落后但是會撒謊,三體人沒有辦法解讀人類的言外之意,更沒有辦法應對人類的口是心非。

參照人類,三體人更像是一樁機器,機器無法真正撒謊,算法也一樣。

不能撒謊的算法,意味著將所有相對不體面的動機都擺到了臺面上,其中包括種族、性別與地域歧視等,而這些偏見都受到編制算法背后的人的影響。

譴責偏見雖然重要,但是我們不能忽略一個事實,即便沒有算法,這個世界也是有偏見的,甚至可以說,只要有人在的地方就會有偏見。

根據偏見的形式不同,又可以分為交互偏見、選擇偏見、確認偏見、潛意識偏見和數據驅動的偏見。

這里稍微提一下確認偏見,它說的其實就是當用戶有一天得知“東方人更聰明”,然后潛意識里就會偏向于尋找可以強化這種偏見的信息。

最早用算法實施偏見政策的是亞馬遜,20年前,它就嘗試過對新老用戶進行區別定價,當然這種策略并沒有維持多久就被識破了。

亞馬遜之后,但凡能人們能叫得上名字的互聯網公司,都在將這種偏見“發揚光大”,這種偏見阻礙了信息和觀點的多元化與透明化。

隨著算法越來越深入生活,盡可能地消除偏見已經成為了一道亟需解決的問題。

目前比較推崇的建議是專門開發一個系統來提前發現偏見決策,方便提前干預。機器比人類更適合嚴謹的數學,例如貝葉斯方法。

貝葉斯方法是一種將未知參數的先驗信息與樣本信息綜合,再根據貝葉斯公式,得出后驗信息,然后根據后驗信息去推斷未知參數的方法。

簡單來說就是先確定某種未發生事件的概率,更有助于系統在進行決策時減少偏見。

專為消除偏見而開發系統顯然是一件成本高昂的事,而且運營商們不見得愿意這么做,因為偏見所能帶來的利益可能更直接,參見所有大數據殺熟的案例。

除開貝葉斯方法,對AI模型進行無監督訓練也是一種消除偏見的辦法。讓算法在沒有人類監督的情況下,自行數據分類等事務,理論上可以必面人為參與貼標簽所帶來的偏見烙印,但顯然人類并不想放任算法自流。

沒有人可以百分百地保證自己毫無偏見,偏見背后又是絲絲相扣的利益,而利益生在人與人之間。所以,人在選擇了通過偏見攫取利益時,就應該做好會飽受偏見的心理準備。

如此看來,將算法責任轉嫁于消費者的互聯網大拿們,面對消費者的任何指責都沒資格喊“冤枉”。

四、資本變臉錄:信息化與泰勒制

財經視頻主一句“資本永不眠”開啟了大眾對于資本解析的興趣,只是很多人遠沒想到,資本的面目并非只能從上市公司和退市公司身上看到。

信息化時代,每個人都是資本的一部分,只要他可以分解為一組一組的數據。然而這些數據帶來的收益卻并不屬于個人,只屬于掌握它的巨頭。

一個有趣的現象,十年前,好萊塢大片里的反派可能是基地組織、敵對國家、黑手黨或連環變態殺人狂,但是這樣的反派已經越來越少見,取而代之的反派是華爾街的金融家們或IT天才,譬如以扎克伯格為原型的電影《社交網絡》。

當資本在一個行業堆積到一定數量時,就會引來人們的忌憚,扎克伯格有沒有用社交軟件影響選民,或者與英國公司進行數據交易已經不重要,重要的是,大家已經開始警惕他了。

參與了近20年互聯網膨脹進程的人,基本也見證了大部分互聯網巨頭的崛起。曾經被房地產商占據的福布斯中國富豪榜上,如今也多了很多互聯網巨頭的身影。

為了撐起這些巨頭的龐大帝國,996反而成了“福報”。的確,996雖然失去了很多東西,但是得到的回報也比其他人更多,只是這種回報沒法與付出量化對應。

人在城市的兩點一線之間,變成了新的勞作機器,今天屈居在格子間的白領和流水線上的工人病沒有本質的區別。

更多的996們沒有機會逐級上升,轉身成為更大的資本,只能在耗盡最能熬夜的時間后黯然退休。

眾多來起源于監獄的組織管理模式,也換上了“科學”面貌,從工廠走向了格子間。在政治經濟學中被大加撻伐的泰勒,到了管理學里,卻搖身一變成為了“科學管理之父”。

泰勒以父之名,將流水線上的工人成功變成了機器,福特又以溫和改良派的姿態為這些機器增加了保養頻率。

因此無論管理學里寫著多少于科學、效率有關的詞,到了批判者眼里就只剩下“剝削”。

然而批判管理學不是目的,一切用于調整生產關系、發展生產力的手段,本質上還是中性的,唯有到了市場支配者手里才容易變得面目可憎。

如今的市場支配者通常是掌握了最多數據的人,他們在掌握了大量數據后,又以數據分析誘導用戶繼續貢獻數據,最后形成了一個閉環,用戶再難以從中脫離開來。

五、異化的人:生而為物

1912年,卡夫卡在自己的小說《變形記》中創造了一個變成臭蟲的人格里高爾。

為家庭奔波了一輩子的格里高爾在失業后變成了臭蟲,最后在孤獨中死去,冷漠和變形的社會最終將人擠壓成了非人的存在。

人類或許永遠不會像格里高爾一樣變成臭蟲,但卻很容易變得不像人。

法蘭克福學派的代表人物馬爾庫塞在《單向度的人》中提出,普通群眾生活水平的提高,并不意味著階級消失,只是意味著普通群眾被虛假的需求操縱從而喪失了自己的批判能力。

提到虛假的需求,就很難不提到消費主義。前段時間,還有自媒體大大“表揚”了一把上?!懊隆保J為這種拼奢侈品的行為是在暴打消費主義。暴沒暴打不知道,但是大家對消費主義的痛恨的確由來已久。

看起來消費主義來源于造概念和造節日的商家,但卻沒法指責他們,因為他們腦門上鮮明寫著“是你要買的,而且買得很開心”。

有人跟隨潮流,不停買買買,自然也就有人逆勢而為。

B站有up主開視頻分享自己的攢錢心得,宣揚攢錢才是年輕人的未來,豆瓣還有摳門女性聯合會,帖子集薅羊毛大成,適逢雙十一更是拼命抵制。

某種意義上,選擇極度摳門的人,哪怕他本身不缺錢,應該也意識到了消費社會對人的異化,看不到現金的支付手段會讓他們隨時擔憂余額下降的速度,過于了解自己的算法會讓他們覺得恐慌。

而那些站上了算法目標陣營的人,卻能夠獲得摳門組無法體會的快樂:所有即時的滿足,即時的服務和信息。對于這些人而言,明確的未來是不知道什么時候才到的戈多。

2020雙十一之前,有一條討論沖上了熱搜#我和李佳琦的區別#,答案是“李佳琦熬夜賺錢白天補覺,我熬夜花錢白天還得打工”?!袄罴宴宦暸假I噶,我欠xx寶三萬八”。

我們沒法因此斷定熬夜看李佳琦們直播的人是不快樂的,因為對于很多人來說,夜晚的時間才是真正屬于自己的,多熬一分鐘就仿佛多活了一分鐘。

可是熬夜找快樂的內容其實也是經由算法挑選,送到你面前的,他們根本的目的只是侵占用戶時間,讓用戶消費,而非讓用戶快樂。

最后呈現在我們面前的是一個十分殘酷的事實:無論工作還是生活,沒有人可以活出自我。

因為算法不需要個性化,只需要讓用戶覺得“個性化”,所有不可計算的東西在算法面前都沒有價值。可是一想,連人都能固定標簽、拆解成數據,久而久之,還有多少事情是不可計算的呢?

人類的本能喜好可以計算,高級目標或許也可以,總有一套流程可以讓你認為人生只有暴富才有意義,在此之下,生而貧窮宛如天生原罪。

雖說我們也犯不著為此太悲觀,因為無論算法還是算法之下的人工智能,一切都還處在學童期,可是人類自古以來就擅長對壞兆頭視而不見,除非事情糟糕到一發不可收拾。

參考資料:

  1. 智本社 《算法,即剝削》
  2. 中歐商業評論?《對話張瑞敏:算法在這個時代被濫用了》
  3. 衛夕指北 《為什么微信終于開始擁抱算法分發了?》
  4. 底層設計師 《今天我們被算法“控制”了嗎》
  5. 看理想 《“親愛的女兒,我們不必害怕算法” 》
  6. 電子發燒友《?人工智能遭遇的偏見 算法偏見帶來的問題》
  7. 高山大學 許倬云《大數據與個人隱私和基本權利不太相干》
  8. 亨哼 《解構智慧旅游:智能化浪潮下的夢幻泡影?》
  9. 騰訊研究院 《算法偏見:看不見的裁決者》
  10. 新華日報 《假如算法有“偏見我們怎么辦?》
  11. 新金融洛書 《算法是怎樣一步步毀掉年輕人的世界的》
  12. 趙皓陽 《當代資本主義剝削的秘密,隱藏在“管理學”的諸多理論背后》

 

作者:吳不知;編輯:風千語;微信公眾號:銀杏財經

本文由 @銀杏財經 原創發布于人人都是產品經理。未經許可,禁止轉載

題圖來自Unsplash,基于CC0協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!