在我地盤這兒,算法得聽我的

0 評論 3879 瀏覽 10 收藏 21 分鐘

#本文為人人都是產品經理《原創激勵計劃》出品。

在互聯網與人們生活深度融合的同時,算法也在不知不覺間“入侵”我們的日常點滴,比如人們逐漸習慣平臺首頁推薦出現的都是自己感興趣的內容。而《互聯網信息服務算法推薦管理規定(征求意見稿)》的頒布打破了這一“入侵”。毫無疑問,未來算法推薦將迎來大變革,個人信息安全也會愈發受到重視。

2012年,美國的一位父親怒氣沖沖地投訴他家附近的塔吉特超市,因為超市為他未成年的女兒不斷發送各種嬰兒用品的優惠券。而后來,沒想到這位父親發現他的女兒真的懷孕了。算法比這位父親更早地知道了他女兒懷孕。從那時起,大數據和算法伴隨著這個故事開始廣泛流行。

2021年,算法已經悄然變得比我們自己更懂自己。有時候只是心里念著一樣東西,隨便打開一個購物APP,就看到一模一樣的東西出現在了首頁的推薦清單里。駕車時我們也無需記憶各種復雜的地圖,只需要輸入起點和終點就能得到算法匹配出的最優路線。

而當一件一件的事情變成了一個一個的算法,一個一個的人變成了各式各樣的算法標簽,不僅是外賣員困在了算法里,不容任何差錯地追趕算法給出的最優路徑;每個人也似乎都按照算法給出的畫像生活,看算法認為你感興趣的新聞,看算法推薦給你的有趣的視頻,購物平臺也早已為你生成了你需要購買的物品清單……

算法帶來的便利漸漸消除掉了人們的溫情和對未知的好奇心,不由得讓人們開始反思怎樣讓算法融入而不是控制我們的生活。

一、算法推薦服務專項管理規定出臺

2021年8月27日,國家互聯網信息辦公室頒布了《互聯網信息服務算法推薦管理規定(征求意見稿)》(以下簡稱“《意見稿》”),從國家層面開始對算法推薦服務進行監督和管理。

《意見稿》對目前算法推薦服務存在的問題提出了相應的管理規定,我們先來解讀一下對幾個熱點問題的規定。

1. 不得進行大數據“殺熟”

大數據“殺熟”可謂是算法帶來的最為嚴重的問題之一,各大平臺利用大數據算法對用戶個人進行畫像分析,對不同用戶實施差別化定價。

特別是對于價格不敏感的老用戶收取更高的費用來補貼新用戶,把老用戶當“韭菜”來割。這樣的行為也引起了社會普遍的不滿。

對此,《意見稿》第十八條專門提出,“算法推薦服務提供者向消費者銷售商品或者提供服務的,應當保護消費者合法權益,不得根據消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實行不合理的差別待遇等違法行為”。

2. 規范各類推薦榜單及熱搜

對于各類榜單和熱搜,當人們研究清楚了相應算法的規則,不免會有人利用規則漏洞采取各種各樣的方法來操控榜單。

我們經??吹奖姸嗔髁棵餍堑膬热蓊l繁出現于微博熱搜榜之中,活躍于各大媒體的推薦榜單之中,而這些內容卻始終沒有與流量一致的反響程度和價值。

《意見稿》第十一條提出,“算法推薦服務提供者應當加強算法推薦服務版面頁面生態管理,建立完善人工干預和用戶自主選擇機制”,希望能夠通過人工干預來彌補推薦算法缺乏價值判斷的漏洞。

第十三條更是明確規定,“算法推薦服務提供者不得利用算法虛假注冊賬號、非法交易賬號、操縱用戶賬號,或者虛假點贊、評論、轉發、網頁導航等,實施流量造假、流量劫持”,從源頭限制算法推薦服務提供者既制定算法規則,又利用算法漏洞操控推薦內容。

3. 用戶享有算法控制權

《意見稿》第十四條規定,“算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖、運行機制等”。

用戶在看到推薦給自己內容的同時,有權利了解背后的算法運行機制,查看推薦這些內容的原理。

此外,第十五條規定中要求,“算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項”,意味著用戶在享有對算法推薦機制知情權的同時,可以直接接受拒絕算法推薦服務,將算的控制權也交還于用戶手中。

4. 用戶自主選擇算法標簽

關于推薦算法的用戶標簽,《意見稿》第十條規定,“不得設置歧視性或者偏見性用戶標簽”。

但“歧視性”和“偏見性”的范圍比較難界定,比如性別、年齡、收入這些常用的用戶標簽嚴格來說可能都帶有一些歧視和偏見的色彩。

同時,《意見稿》的第十五條提出“算法推薦服務提供者應當向用戶提供選擇、修改或者刪除用于算法推薦服務的用戶標簽的功能”。

也就是用戶可以調整自己的用戶畫像,這與目前基于真實數據的畫像相比,會帶來主觀感情色彩的失真,使得推薦服務其實是基于用戶理想中的自己做出的推薦,對推薦算法后續的效果的評價和調優造成比較大的困難。

二、對產品和運營的影響

目前《意見稿》還在公開征求意見的階段,但結合2021年8月20日通過的《中華人民共和國革新信息保護法》(以下簡稱“《信息保護法》”)來看,國家已經下決心開始對數據和算法服務進行監督和管理。

我們不妨試想一下,當《意見稿》和《信息保護法》正式執行之后,可能會對互聯網產品和運營帶來哪些影響。

1. 精準廣告服務將受到約束

從微信開始在朋友圈進行廣告推送以來,基于地區、性別、愛好等用戶標簽進行精準定向的廣告投放成為了廣告行業的新趨勢。

微信的朋友圈廣告還可以看到好友的點贊和評論,看看有哪些好友一起被這個廣告推薦算法所選中。看到不符合自身情況的廣告推送,也總會看到廣告下面惡搞和吐槽的評論。

近幾年,今日頭條、抖音、微博等平臺也都推出了精準廣告服務,比如抖音可以根據位置、性別等信息精準地推送視頻廣告。

這半年我頻繁地在抖音上刷到家旁邊駕校的推廣視頻,很驚訝抖音是怎么分析出我是沒有考駕照的?

另一方面我又苦于無法關閉這些廣告,因為我之前學過駕照但沒有通過考試,對于考駕照這件事一直在拖延和逃避,每次刷到廣告都會勾起不好的回憶。

精準廣告已然成為了數字時代針對個人進行精準營銷的典型模式,但似乎卻沒有人在意那些用戶數據是否真的可以隨意獲取和使用。

《信息保護法》第四十四條,明確了“個人對其個人信息的處理享有知情權、決定權,有權限制或者拒絕他人對其個人信息進行處理”。

在正式執行之后,如果大部分用戶選擇拒絕這些產品對個人信息進行分析和利用,那么精準廣告服務也就失去了最為基礎的數據支撐,精準廣告服務的發展也會受到比較嚴重的限制。

《意見稿》中也明確指出:用戶可以“選擇、修改和刪除用于算法推薦服務的用戶標簽”;“算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項”。

即便用戶選擇授權個人信息的使用,用戶也有權利修改自身的用戶標簽,也就讓所謂的“精準”大打折扣。

同時,用戶有權利拒絕針對個人特征或者全部的算法推薦服務,這讓平臺可能需要通過補貼等形式鼓勵用戶使用,那么也會進一步增加精準廣告業務的成本。

2. 從預測需求回歸到滿足需求

伴隨著大數據和算法的不斷發展,個性化的推薦功能成為了幾乎每個產品設計的重點之一,眾多互聯網產品的主頁都是以算法推薦服務為核心進行設計的,以展示出產品“千人千面”的特點。

而這也是在人們沒有意識到信息的重要性或沒有途徑保護個人信息的背景下的產物。當個人可以拒絕個人信息的授權和算法推薦服務時,互聯網產品也需要回歸到自身的內容和服務來重新進行定義和設計?;ヂ摼W產品可能會迎來一波改版升級潮。

沒有了個性化的推薦,并不代表沒有了用戶個性化的需求,企業更需要將戰略重點集中到怎樣能夠直接地獲取到用戶的需求、怎樣更快更好地滿足個性化的需求上來。

對于產品運營而言,失去了用戶個性化推薦這條途徑,推薦界面的內容也可以回歸企業自身的運營策略,減少單個用戶的偏好對整體運營策略的影響。

其次,產品運營也更需要與用戶建立深度的連接,更多地與用戶進行直接的溝通交流,而不是過分地依賴于數據分析,依賴于可能連運營人員自己都無法理解的算法給出的結果。

3. 算法推薦服務產品化

《意見稿》中明確地提出,“不得設置歧視性或者偏見性用戶標簽”,“算法推薦服務提供者應當向用戶提供選擇、修改或者刪除用于算法推薦服務的用戶標簽的功能”。

如果用戶標簽開放給用戶自己選擇,用戶標簽就不能像在后臺處理和分析一樣隨意頻繁地進行調整,標簽的設置需要經過周密的思考和測試。

為了避免標簽太敏感和直接,還需要為每個標簽起個萌萌噠的名字,以便讓用戶更容易接受。

讓推薦算法和用戶標簽支持用戶自己進行調整,其實是將算法推薦服務進行了產品化。當用戶根據自己的真實需要對推薦服務進行了調整之后,推薦結果也由“算法認為用戶想要的”真正轉變成為“用戶想要的”。哪個產品的定制算法可以真正滿足用戶需求,也就更容易受到用戶的喜愛。

與此同時,需要制定相應的運營策略來鼓勵用戶進行算法的調整和更新,而且也可以結合產品自身的會員體系和成長體系,不斷增加產品的用戶粘性。

三、未來與趨勢

1. 個人數據安全賽道興起

對于個人信息,我們不是希望禁止所有對于個人信息的調取,真正恐懼的是不知道自身的信息都被哪些人和機構所使用。

現在似乎隨便一個陌生的電話推銷員,就知道你的姓名、身份證號、家庭住址等種種的個人信息。

《信息保護法》為個人信息的保護提供了法律依據,《意見稿》也為算法推薦服務制定了相關的管理規定。

但個人依舊無法主動掌控個人信息的使用,依然需要依賴于個人信息處理者遵守相關的規定。法律法規和管理辦法都只能在事后追究違反者的責任,當面對巨大的利益時,可能還是會有人鋌而走險。

目前,企業紛紛向數字化轉型,在企業端積累了越來越多的數據,企業的數據安全成為了備受關注的領域,但對于個人信息安全,還是鮮有人關注。

我還是認為隨著國家的監管力度的加大和個人信息保護意識的覺醒,個人數據安全一定會成為一個新的熱點賽道。

在數字時代,數據是最重要的財富,而個人的數據信息也應該由個人來掌控,不能未經允許就被利用或者買賣。

我們可以嘗試在特定的領域,通過與區塊鏈等技術的結合,實現完全由個人來管理自己的個人信息的授權,讓個人能夠追溯和查看個人信息每一次的調用記錄。

也希望能有一天,社會也能夠像為知識付費一樣,為獲取個人的數據而付費。

2. 算法To B的時代來臨

近些年,伴隨著數據技術和移動互聯網的發展,面向C端用戶的各類互聯網產品能夠收集和獲取到海量的用戶使用數據。

在個人信息沒有被重視和保護之前,能獲取到的數據幾乎就等同于可以進行分析的數據,面向C端用戶的各類算法得到了迅速的發展,已經可以實現“千人千面”的用戶畫像。

算法離不開數據,隨著民眾個人信息安全意識的提高以及國家對于個人信息的保護的加強,個人信息不再可以未經授權的隨意使用,面向C端用戶的算法應用場景也會越來越受限制。

但算法遠遠不止推薦算法這一類,在供應鏈管理、質量控制、輔助決策等面向B端的應用場景中,算法能夠極大地幫助企業用戶提升生產和運營效率。

而且隨著越來越多的企業向數字化轉型,企業也能夠積累越來越多高質量的生產運營數據,企業對自身生產運營數據的處理和分析不會像用戶數據一樣受到限制,企業也希望能夠有更多的算法來讓這些數據產生價值,我們或許將會迎來一個算法To B的大時代。

3. 可解釋性>算法結果

AlphaGo戰勝李世石之后,人們都驚嘆于AlphaGo在第二場第37手的神來之筆,驚嘆人工智能和算法已經可以自己學習并超越人類。

此后,人們遵循著“有足夠的數據和足夠好的算法就可以訓練出和AlphaGo一樣的人工智能”的邏輯在人類生活的各個領域不斷進行著類似的嘗試,而從AlphaGo到今天,似乎也沒有出現比AlphaGo更為轟動的人工智能。

AlphaGo之所以能夠轟動世界,不是因為那一步從來沒有人能夠想到過的棋,而是人們能夠一致地理解和解釋這一步棋的精妙。

圍棋是人類發明的游戲,人們能夠完整地整理出圍棋的所有規則,而且這些規則是所有人都統一的。

在很多很多的領域,人類的探索可能都還沒有揭開最表面的那層面紗,對于同一個問題人類社會都沒有一個統一一致的規則和答案。

對這類問題,算法的得出結果的過程可以被人們所解釋往往比結果本身更為重要。

算法可以被解釋,意味著人們可以進一步分析朝什么樣的方向可以優化算法,人們也可以知道在何種情況下參考算法給出的結果。

就如購物平臺的商品推薦,我個人基本上想要買什么東西,搜索之后就很快下單了。而推薦算法可能比較依賴于我的搜索記錄,結果推薦給我的大都是我已經買過的商品。

如果我能夠看到并且調整推薦的算法,可能我會將搜索記錄的權重調整得更低一些。

或許將來在推薦欄里看到了一袋大米,能夠同時看到“距您上次購買大米已經一個月了,您可能需要再次購買一袋”的推薦理由,這樣類似溝通交流形式的推薦更容易讓我接受也更有幫助。

又或許在2012年,塔吉特超市推薦嬰兒用品的優惠券時,能夠說明推薦的理由,那位父親也就不會那么氣憤地去投訴超市了。

 

作者:吳之貓,健康管理小碩,醫療健康產品汪+文藝貓。微信公眾號:有不知

本文由@吳之貓 原創發布于人人都是產品經理,未經許可,禁止轉載。

本文為人人都是產品經理《原創激勵計劃》出品。

題圖來自?Unsplash,基于 CC0 協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!