如果被信息流控制了喜怒哀樂,你會讓算法對你負(fù)責(zé)嗎?
人們從信息的狩獵者逐漸變成獵物,難怪會被信息流控制自己的情緒。
最近,很多企業(yè)都在談算法的價值觀。在烏鎮(zhèn)互聯(lián)網(wǎng)大會上,張朝陽談到了這個話題,在之前今日頭條舉辦的AI大會上,哈佛教授Cyrus Hodes也提到人工智能應(yīng)該承擔(dān)更多的社會責(zé)任。
在以前看到這種論調(diào),我總想為企業(yè)喊冤。技術(shù)鉆研、產(chǎn)品開發(fā)、組織經(jīng)營已經(jīng)很費(fèi)力了,企業(yè)創(chuàng)造價值、提供就業(yè)就已經(jīng)足夠負(fù)責(zé)了。還要為算法技術(shù)這種來源于用戶數(shù)據(jù)的東西塑造價值觀?不過在了解過Facebook一個有頗多爭議的實(shí)驗(yàn)后,我開始逐漸改變了這種想法。
在2013年,F(xiàn)acebook聯(lián)合康奈爾大學(xué)、UC舊金山分校的研究員在2013年于美國國家科學(xué)院院刊發(fā)表了一篇名為“社交網(wǎng)絡(luò)中大規(guī)模情緒擴(kuò)散的實(shí)驗(yàn)證據(jù)”的論文。實(shí)驗(yàn)的主要內(nèi)容是,更改用戶信息流中的情緒,看看用戶會有怎樣的反饋。事實(shí)證明,在用戶信息流中灌輸“正能量”的信息,用戶也會給出正面的反饋,反之則是給出負(fù)面的反饋。
由于這則實(shí)驗(yàn)是在用戶不知情的情況下進(jìn)行的,“實(shí)驗(yàn)”人數(shù)涉及到了將近七十萬人?;ヂ?lián)網(wǎng)上對這則實(shí)驗(yàn)進(jìn)行了強(qiáng)烈的抨擊,認(rèn)為Facebook的行為極大的違反了人倫道德。
其實(shí)我們都知道,真正讓人們感到恐懼的,是Facebook可以通過信息流輕易操縱人們情緒這件事。
從獵手到獵物,弱者才會被“操縱”
回溯到互聯(lián)網(wǎng)的“上古時代”,人們尋找信息的方式是非常簡單的。例如搜狐的黃頁形式,整個互聯(lián)網(wǎng)上的信息寥寥無幾,以至于可以用分類排列的形式展現(xiàn)出來。當(dāng)時的人們要知道自己要找的網(wǎng)站屬于那一類,才能在黃頁互聯(lián)網(wǎng)上盡情沖浪。
此時人們對獲取信息的把控力可以達(dá)到90%。在昂貴的撥號網(wǎng)絡(luò)之外,還有大量的電視、廣播、紙質(zhì)媒體構(gòu)成人們對世界的認(rèn)知。
隨著信息的爆發(fā)式增長,一本黃頁已經(jīng)遠(yuǎn)遠(yuǎn)不足夠。到了谷歌、百度的搜索引擎時代,關(guān)鍵詞成為了尋找信息的利器。這時的人們已經(jīng)可以帶著問題來尋找信息,SEO、SEM等等廣告形式也讓企業(yè)開始有權(quán)力去“控制”用戶看到那些信息。
同時,廉價的寬帶資費(fèi)和更豐富的信息增加了互聯(lián)網(wǎng)的權(quán)重,讓其在人類認(rèn)知來源構(gòu)成中的地位更高。換句話說,人類認(rèn)識世界的窗口變窄了。
等到了今天,移動終端的小屏特征帶來了信息流和時間線,而這兩者一個來自于編輯推薦/算法推薦,另一個則來自于用戶的關(guān)注關(guān)系。人們已經(jīng)很難再去主動尋找信息,而是接受編輯、算法認(rèn)為適合他們的信息。
此時,移動互聯(lián)網(wǎng)下沉基本完畢,人們獲取信息的渠道更為集中,對于獲取信息的把控程度卻在下降。人們從信息的狩獵者逐漸變成獵物,難怪會被信息流控制自己的情緒。
讓渡信息窗口,直到成為算法的鏡中人
其實(shí)互聯(lián)網(wǎng)發(fā)展的過程,可以被看做一個人類不斷讓渡信息窗口的過程。
從黃頁時期到搜索引擎的發(fā)展中,我們把部分信息窗口讓渡給了流量和金錢。廣告主和高熱度話題有權(quán)力占據(jù)我們信息窗口的主要位置。而從發(fā)展引擎到信息流的發(fā)展中,社交關(guān)系和原生廣告加大了高熱度話題和廣告主在信息窗口中的占比,而剩下的部分則被讓渡給推薦算法和編輯。
信息流的出現(xiàn),是這個讓渡的過程中最為關(guān)鍵的一步。我們雖然把信息窗口交了出去,卻獲得了更多、更具個性化的信息。黃頁時代的幾十萬個網(wǎng)站怎么可能滿足人們豐富的需求?廣告主會鼓勵內(nèi)容創(chuàng)造者創(chuàng)造更多內(nèi)容,編輯和推薦算法幫助我們找到最適合我們的內(nèi)容。
這一切看似是非常良性的循環(huán),可問題的關(guān)鍵在于:信息流和推薦算法無處不在,它們已經(jīng)不僅僅意味著我們?yōu)g覽什么,而對我們生活的很多方面都起到了關(guān)鍵性的作用。
Facebook的實(shí)驗(yàn),只是簡單的校驗(yàn)了一下信息繭房的假說,結(jié)果卻發(fā)現(xiàn)信息流可能會影響到人們的情緒。實(shí)際在購物、旅行、音樂等等的選擇上,我們都會被信息流左右。
信息流影響了我們讀什么新聞、看什么電影、買什么東西,而這些行為數(shù)據(jù)又被記錄下來,成為了自身畫像的一部分,也成了算法構(gòu)成的依據(jù),某種程度來說,這一切都會讓我們和算法中的自己越來越像。
算法的第一要務(wù)是……
當(dāng)人們和算法中的自己越來越像(即使只是有這種可能性),算法的價值觀、人工智能的責(zé)任感這種論調(diào)就有了存在的必要。在內(nèi)心深處,我們感受到了一種對自我把控的無力感。提出價值觀、責(zé)任感這種要求,就好像弱者對強(qiáng)者耍賴,要求簽訂一條互不侵犯的條約。
那么問題是,難道就是為了我們自己的不安全感,信息流相關(guān)技術(shù)作為窗口的締造者,就有必要五講四美、三熱愛?
這時問題就上升到了更高形態(tài):成為健康美好正直的人,是一種普世的價值觀。可沒人有權(quán)力阻止另一個人成為猥瑣陰險低俗的人。
如果算法承擔(dān)了教育人性工作,不顧高中生的興趣標(biāo)簽是王者農(nóng)藥,在內(nèi)容平臺推薦數(shù)學(xué)題,在電商平臺推薦《三年模擬五年高考》。以前的“我可能喜歡”、“我可能感興趣”、“和我一樣的人都在看”全都變成“你需要看”、“為了身體健康你最好買這個”“比你優(yōu)秀的人看了這些”。
那樣的確是價值觀很正,可這行為真的正確嗎?
郭德綱說過,相聲的第一要務(wù)是教育人,好不好笑沒關(guān)系。
到底是誰沒有價值觀跟責(zé)任感?
所以說了這么多,答案是算法不該有價值觀,人工智能不該有責(zé)任感嗎?
當(dāng)然不是。
在以往的“技術(shù)責(zé)任事故”中,如果要追究責(zé)任,第一責(zé)任人往往是一位不作為的人類。如果說算法該有價值觀,那價值觀也應(yīng)該來自于人的作為。
- 第一,慎用作為信息窗口權(quán)力。不能再把一些莫名的條款隱藏在長長的用戶須知中,然后像Facebook一樣把自己的用戶作為實(shí)驗(yàn)品。
- 第二,明晰人類和技術(shù)的權(quán)責(zé)劃分,做好人類的分內(nèi)事。舉個例子,把鑒黃、鑒假這種事一味的交給人工智能完全是不負(fù)責(zé)任的懶政,出了問題就責(zé)怪技術(shù)的不成熟而不是人的不作為,AI真的覺得很冤!
- 第三,給予用戶充分的知情權(quán)和選擇權(quán)。讓用戶在越來越小的信息窗口中清晰的知道信息為什么會出現(xiàn)。比如不管原生廣告(自以為)做的多么有趣、多么原生,請務(wù)必標(biāo)注上“廣告”二字。而給用戶推薦信息時,最好明確給出推薦理由,并給予用戶拒絕某一標(biāo)簽或某一推薦來源的權(quán)力。不要在用戶點(diǎn)擊“不再推薦此類內(nèi)容”后假裝看不見然后繼續(xù)推薦。
多的不說,只要人類能做到以上三點(diǎn),算法就會很有價值觀了。如果能從技術(shù)角度多進(jìn)行一些優(yōu)化,我們的信息流會變得非常讓人愉悅。
這篇文章的開頭,是一場Facebook主導(dǎo)的實(shí)驗(yàn),但在文章的最后,我想給大家介紹另一篇Facebook的研究成果。
2015年(在那場實(shí)驗(yàn)的兩年之后),F(xiàn)acebook研究了14年一年的用戶數(shù)據(jù),為用戶和新聞鏈接的政治傾向都打了分,看看用戶會不會主動瀏覽跟自己政見有沖突的新聞。
結(jié)果如圖所示,F(xiàn)acebook隨機(jī)展示出的信息是一樣多的,但用戶們靠著自己的社交關(guān)系(自由派會關(guān)注更多的自由派,反之亦然)篩掉了一大部分政見相左的信息,靠自己的點(diǎn)擊又篩掉了一大部分,最后才是被算法推薦篩選掉的。而算法邏輯本身又部分成立在社交關(guān)系和用戶行為之上。結(jié)論就是,在信息展示這件事上,個人選擇比算法的影響更大。
所以,即使信息繭房這種說法是存在的,但把成因最小的算法推薦當(dāng)做罪魁禍?zhǔn)?,是不是在欺?fù)算法不會說話?
本文由 @腦極體 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。
題圖由作者提供
- 目前還沒評論,等你發(fā)揮!