“信息繭房”是個(gè)偽概念

9 評(píng)論 13150 瀏覽 11 收藏 18 分鐘

一個(gè)“概念”是否合理,其標(biāo)準(zhǔn)并不是口口相傳的程度,只有動(dòng)用理性精神去分析、去拆解,才能接近它的真正本質(zhì)。

正如馬歇爾·麥克盧漢所言,媒介技術(shù)是社會(huì)發(fā)展的基本動(dòng)力,每一種新媒介的產(chǎn)生,都開創(chuàng)了人類感知和認(rèn)識(shí)世界的新方式。步入算法時(shí)代,作為技術(shù)的算法重構(gòu)了一切領(lǐng)域的運(yùn)行規(guī)則和運(yùn)作模式。

對(duì)于內(nèi)容產(chǎn)業(yè)而言,基于算法推薦的內(nèi)容分發(fā)機(jī)制,不僅可以滿足不同受眾的個(gè)性化信息需求,還能大大節(jié)省用戶獲取內(nèi)容的時(shí)間成本,使其能夠最為效率地獲得需要的信息。

但人們并未在這種美好愿景中沉湎太久,對(duì)新技術(shù)的警惕致使算法分發(fā)不斷受到質(zhì)疑。因?yàn)樵谒惴ㄍ扑]系統(tǒng)下,算法基于用戶的社交關(guān)系和信息偏好,推薦與用戶高度匹配的個(gè)性化內(nèi)容,而這可能會(huì)引發(fā)一定的問題。

早在WEB 1.0時(shí)代,由信息私人訂制所造成的信息偏食就曾引起眾多學(xué)者和評(píng)論家的擔(dān)憂。他們認(rèn)為,個(gè)性化信息的盛行將導(dǎo)致民眾只關(guān)心他們感興趣的內(nèi)容,從而侵蝕社會(huì)的共識(shí)基礎(chǔ),危害民主社會(huì)發(fā)展。

“信息繭房”(Information Cocoons)這一概念就在此時(shí)興起,用以描述信息偏食所造成的風(fēng)險(xiǎn)。經(jīng)過長(zhǎng)時(shí)間的使用,這個(gè)概念似乎已經(jīng)成為一種定理,當(dāng)算法時(shí)代來臨,它也自然而然地被挪用在算法推薦的內(nèi)容分發(fā)機(jī)制之上,并逐漸成為后者的“原罪”。

問題在于,盡管此概念被沿用已久,但我們似乎從未認(rèn)真考慮它的正確性。實(shí)際上,正因?yàn)樗鼘?duì)算法分發(fā)的指責(zé)如此嚴(yán)厲,才應(yīng)該更謹(jǐn)慎地對(duì)此加以審視:伴隨技術(shù)條件的更新以及媒介環(huán)境的變革,這一誕生于WEB 1.0時(shí)期的概念是否還具備適用性?它是否還能準(zhǔn)確描述算法分發(fā)的負(fù)面影響,以及互聯(lián)網(wǎng)內(nèi)容生態(tài)所罹患的不良癥候呢?

一、“信息繭房”的前世今生

“信息繭房”這個(gè)概念,最為人熟知的來源是美國(guó)法學(xué)教授凱斯·桑斯坦的《信息烏托邦》。該書出版于2006年,盡管為時(shí)尚早,但彼時(shí)信息的個(gè)人化、定制化已經(jīng)成為一大趨勢(shì)。

早在1995年,比爾·蓋茨就曾預(yù)言:在未來世界,量身定制的信息將自然增加,每個(gè)人都可以編排一份完全符合自己興趣的“日?qǐng)?bào)”。而在次年出版的《數(shù)字化生存》一書中,學(xué)者尼葛洛龐帝也預(yù)言了個(gè)性化定制的“我的日?qǐng)?bào)”(The Daily Me)即將出現(xiàn)。

桑斯坦非常認(rèn)同“我的日?qǐng)?bào)”,并在此基礎(chǔ)上進(jìn)一步提出“信息繭房”的概念。他指出,在互聯(lián)網(wǎng)時(shí)代,伴隨網(wǎng)絡(luò)技術(shù)的發(fā)達(dá)以及信息量的劇增,每個(gè)人都能隨意選擇關(guān)注的話題,并可以根據(jù)自己的喜好打造一份個(gè)人日?qǐng)?bào),但這種信息選擇行為將會(huì)導(dǎo)致“信息繭房”的形成。

他所謂的“信息繭房”,是指?jìng)鞑ンw系個(gè)人化所導(dǎo)致的信息封閉的后果。當(dāng)個(gè)體只關(guān)注自我選擇的或能夠愉悅自身的內(nèi)容,而減少對(duì)其他信息的接觸,久而久之,便會(huì)像蠶一樣逐漸桎梏于自我編織的“繭房”之中。桑斯坦認(rèn)為,這將導(dǎo)致視野偏狹和思想的封閉甚至極化,進(jìn)而會(huì)加強(qiáng)偏見并制造出非理性的極端主義,直至侵害政治民主。

嚴(yán)格來說,人們更愿意接觸自己感興趣的內(nèi)容,這受人的天性或者說思想惰性的制約,而技術(shù)的發(fā)展確實(shí)有加強(qiáng)這一傾向的趨勢(shì)。正因?yàn)槠鹾狭藢?duì)此現(xiàn)象擔(dān)憂的社會(huì)心理,“信息繭房”這一概念逐漸被大眾認(rèn)可并被廣泛使用。

但桑斯坦提出“信息繭房”時(shí),算法還是個(gè)模糊的概念。當(dāng)算法技術(shù)逐漸發(fā)展成熟,并成為內(nèi)容分發(fā)的通行規(guī)則之后,人們驚奇地發(fā)現(xiàn):“信息繭房”似乎更能貼切地描述算法所造成的影響。

在傳統(tǒng)媒體時(shí)代,媒體機(jī)構(gòu)面向大眾生產(chǎn)新聞,并依賴人工編輯的方式進(jìn)行分發(fā),并無明確的受眾細(xì)分意識(shí)。而基于算法推薦的內(nèi)容分發(fā),以用戶的個(gè)人特征為標(biāo)準(zhǔn)進(jìn)行信息篩選,并向用戶推薦與其興趣和價(jià)值觀高度匹配的個(gè)人化信息,由此形成“千人千面”的內(nèi)容消費(fèi)形態(tài)。

從積極的方面來看,這種分發(fā)方式使信息傳播更加扁平化,各類信息內(nèi)容的顯現(xiàn)度與曝光量由算法規(guī)則所決定,受眾可以自由選擇信息,削弱了專業(yè)媒體的內(nèi)容把關(guān)能力和議程設(shè)置能力。

但與此同時(shí),也有越來越多人擔(dān)心,算法推薦機(jī)制正通過個(gè)性化的名義背離多元性的信息傳播方式:它是否會(huì)過分迎合用戶偏好,讓我們只能看到自己想看到的東西,只聽到自己認(rèn)同的觀點(diǎn),進(jìn)而導(dǎo)致信息封閉?

在這種情況下,“信息繭房”概念又被重新提起,用以批評(píng)算法分發(fā)所導(dǎo)致信息接收窄化、信息結(jié)構(gòu)失衡問題。無論是用戶還是內(nèi)容供應(yīng)商,都開始認(rèn)同這一概念。更多人將其與網(wǎng)絡(luò)場(chǎng)域的意見分裂、極端化以及社會(huì)整體價(jià)值觀離散化聯(lián)系在一起,以證明“信息繭房”對(duì)社會(huì)共識(shí)基礎(chǔ)的侵害。

二、“信息繭房”真的合理嗎?

表面上看起來,對(duì)“信息繭房”的擔(dān)心似乎不無道理。算法分發(fā)機(jī)制下,決定內(nèi)容的標(biāo)準(zhǔn)是用戶的個(gè)人特征,算法將篩選后的信息聚集起來再分發(fā)給用戶,確實(shí)有導(dǎo)致信息封閉的危險(xiǎn)。但關(guān)鍵是,我們已經(jīng)熟稔于使用這個(gè)概念并日益將其標(biāo)簽化,卻忘記思考一個(gè)問題:它真的有理可依嗎?

實(shí)際上,除了評(píng)論家們空口白牙的指責(zé),信息繭房這一概念在學(xué)術(shù)界鮮有量化數(shù)據(jù)的支撐。相反,已有的許多研究證明,信息繭房的負(fù)面效應(yīng)其實(shí)不足為懼。

試想一下,如果我們要論證“信息繭房”是否存在,應(yīng)該怎么入手?具體而言,有兩個(gè)呈遞進(jìn)關(guān)系的必要條件:

1. 從信息消費(fèi)維度,證明人們只通過有限的媒介渠道(這些媒介還必須是算法分發(fā)型)接觸信息;

2. 從受眾心理維度,論證有限的信息接觸,導(dǎo)致了受眾觀念的單一化和極端化。

后者偏長(zhǎng)效性的心理測(cè)量,操作更加復(fù)雜,因此相關(guān)研究較少。更多現(xiàn)有的研究是從第一個(gè)維度切入,并證明“信息繭房”這個(gè)概念根本無法成立。

比如,2016年Seth Flaxman等學(xué)者進(jìn)行了一項(xiàng)很有代表性的實(shí)驗(yàn)[1]。研究人員選擇了5萬名參與者,要求他們報(bào)告自己最近閱讀、觀看或收聽的新聞媒體,同時(shí)通過電子手段直接監(jiān)測(cè)和記錄他們的實(shí)際新聞消費(fèi)行為,包括網(wǎng)頁瀏覽歷史等。通過兩項(xiàng)數(shù)據(jù)的對(duì)比,研究最終發(fā)現(xiàn)人們實(shí)際的媒體消費(fèi)比他們自己想象中更具有多樣性,也就是說,人們實(shí)際并沒有陷入“信息繭房”中,但他們可能會(huì)裝作自己陷入了其中。

其實(shí),即便沒有這些研究成果作支撐,僅從常識(shí)或邏輯的角度切入推斷,我們也會(huì)發(fā)現(xiàn)信息繭房只不過是個(gè)一戳就破的“泡泡理論”:

1. 信息偏食是人的本性,在傳統(tǒng)媒體時(shí)代就開始有了

大部分情況下,人們只會(huì)主動(dòng)接觸或選擇相信符合他先前觀念的內(nèi)容,這是人性使然。

在傳播學(xué)里,描述此現(xiàn)象的理論是“選擇性接觸”假說,即受眾習(xí)慣于接觸與自己原有態(tài)度、觀點(diǎn)、立場(chǎng)相吻合的信息,而盡量避開與自己觀點(diǎn)、價(jià)值觀念相悖的內(nèi)容,以求得心理的平衡與和諧。

眾多研究支持這一假說,比如學(xué)者Garrett在2009年的一項(xiàng)研究就發(fā)現(xiàn),受試者更傾向于從符合其政治觀點(diǎn)的出口選擇、接收新聞內(nèi)容[2]。

所以,如果說有什么“繭房”,那也只是人性中趨利避害的元素所編織的繭房。換言之,思維封閉的“鍋”應(yīng)該甩給人類的思維惰性,而不是算法分發(fā)。

回想一下在沒有個(gè)性化算法的時(shí)代,假如你買一份雜志或報(bào)紙,遇到不感興趣的內(nèi)容同樣只會(huì)草草翻過,并不多看一眼,而算法分發(fā)只是為你節(jié)省了跳過不感興趣內(nèi)容的時(shí)間。

2. 網(wǎng)絡(luò)并非無菌室,而是蕪雜交融的信息環(huán)境

“信息繭房”的支持者認(rèn)為,在傳統(tǒng)媒體時(shí)代,報(bào)紙、電視能提供無篩選的新聞信息,即便人們不專門去看,也可以不經(jīng)意地瞄到、看到一些未曾預(yù)料的信息,而算法分發(fā)消滅了這種可能性。

此類觀點(diǎn)忽略了一點(diǎn)——互聯(lián)網(wǎng)的低準(zhǔn)入門檻降低了信息獲取的成本,不同類型的內(nèi)容自由流通,人們能接觸到比過往更廣泛的信息。

從這個(gè)角度出發(fā),互聯(lián)網(wǎng)只會(huì)打破信息封閉,降低“信息繭房”出現(xiàn)的概率。

而且這種觀點(diǎn)有些過于理想化甚至有些幼稚,因?yàn)樗鸦ヂ?lián)網(wǎng)視為僅由算法分發(fā)機(jī)制支配的信息環(huán)境。但實(shí)際上,互聯(lián)網(wǎng)是多種媒介聚合的平臺(tái),新聞網(wǎng)頁、視頻網(wǎng)站、社交媒體、新聞聚合APP等媒介并存,這些渠道采取了不同的信息分發(fā)方式,也都會(huì)對(duì)人們的觀點(diǎn)和思維產(chǎn)生影響。

回想一下自己的信息消費(fèi)習(xí)慣,我們不太可能只垂青某一個(gè)信息端口。無論是門戶網(wǎng)站、微信公眾號(hào)、朋友圈、微博還是各種新聞APP,我們總會(huì)接觸到不同的觀點(diǎn)和信息源。各種類型的內(nèi)容已經(jīng)無孔不入地侵入到人們的生活中,而我們會(huì)主動(dòng)或在不經(jīng)意間與它們保持接觸,卻不太可能對(duì)自己興趣之外的事情充耳不聞。

3. 信息偏食的后果真的有那么嚴(yán)重嗎?

退一步說,假設(shè)未來某一天,所有的信息傳播渠道都被算法分發(fā)機(jī)制所壟斷,并且它只推送符合人們興趣的內(nèi)容,那后果真的會(huì)很嚴(yán)重嗎?

我們可以大體想象一下,假設(shè)一個(gè)愛好歷史的人,他對(duì)歷史研究充滿興趣;但如果因?yàn)樗惴ǚ职l(fā),他錯(cuò)過了有關(guān)NBA的賽事信息或者是某明星的花邊新聞,對(duì)他個(gè)人來說,似乎并沒有什么損失。

反倒是如果真像“信息繭房”批評(píng)者所期待的那樣,為這個(gè)人推送所有領(lǐng)域的最新動(dòng)態(tài),似乎并不現(xiàn)實(shí)、也很不必要。這不但犧牲了算法聚合信息、匹配分發(fā)的效率性,讓用戶無法找到自己需要的信息,還可能引發(fā)后果更為嚴(yán)重的“信息冗余”或“信息爆炸”。

三、為什么人們?cè)敢庀嘈拧靶畔⒗O房”?

誠然,算法對(duì)當(dāng)下現(xiàn)實(shí)社會(huì)的影響無所不在并且無比強(qiáng)大。當(dāng)算法推薦被用于商業(yè)領(lǐng)域,有利于細(xì)化消費(fèi)市場(chǎng),幫助消費(fèi)者提高效率、節(jié)省時(shí)間;而當(dāng)這種模式觸及內(nèi)容分發(fā)、牽涉到知識(shí)與思想領(lǐng)域,就容易引起人們的警惕。

但“信息繭房”這一并不是特別合理的概念之所以盛行,顯示了我們似乎對(duì)“算法的權(quán)力”過分戒備,以至于忽視了我們正享受著算法帶來的紅利。

溯其原因,可以歸結(jié)為人類的一貫思維方式:人們天生懼怕新事物以及它所帶來的改變。

回顧媒介技術(shù)發(fā)展史,從口語到文字,再到電子媒介時(shí)代的廣播、電視、計(jì)算機(jī),幾乎每一種新技術(shù)的出現(xiàn)都會(huì)引發(fā)人們的恐慌與質(zhì)疑。

在《斐德羅篇》中,蘇格拉底斥責(zé)文字損害人類記憶,呼喚重回口語時(shí)代;廣播、電視出現(xiàn)后,評(píng)論家又抨擊電子媒介會(huì)損害人類形成于印刷時(shí)代的、縝密理性的思維模式;而當(dāng)計(jì)算機(jī)面世之后,它更被打造成洪水猛獸一樣的可怕形象,其中最有代表性的聲音,當(dāng)屬尼古拉斯·卡爾在《淺薄》一書中對(duì)網(wǎng)絡(luò)導(dǎo)致人類思維退化的批判。

我們現(xiàn)在可能覺得這些批評(píng)太過杞人憂天,但與之同理,當(dāng)宛若黑箱一樣的算法技術(shù)日益成熟并牽涉到內(nèi)容分發(fā),人們又開始害怕人類的思考能力被限制、獨(dú)立意志被支配、政治民主被侵害。

在某種意義上,這是與過往對(duì)新技術(shù)的批判一脈相承的,它源于對(duì)未知事物的不確定性以及由此引發(fā)的恐懼心理。

而“信息繭房”所描述的癥結(jié),其實(shí)恰恰是算法還不夠成熟的體現(xiàn)。

成熟的算法能夠?yàn)槿藗兲峁└鞣N類型的有益信息,在提高生產(chǎn)、生活效率的同時(shí),又能促進(jìn)人們視野開闊、思想進(jìn)步,這才是技術(shù)向善的體現(xiàn)。

面對(duì)算法分發(fā)可能存在的信息偏向問題,信息供應(yīng)商也開始采取各種手段進(jìn)行糾正,比如新聞APP“跨越分歧的閱讀”(Read Across the Aisle)、Chrome瀏覽器“逃離泡泡”插件,以及微信的“看一看”功能也在以社交推薦的方式對(duì)信息偏向進(jìn)行技術(shù)糾偏。

無論如何,“信息繭房”是一種赫胥黎式的警言,它提醒我們應(yīng)避免技術(shù)對(duì)人類的異化。但過分地夸大新技術(shù)的負(fù)面效應(yīng),只會(huì)阻礙技術(shù)進(jìn)步。

即便是提出“信息繭房”概念的桑斯坦也在《信息烏托邦》中指出:“新的傳播技術(shù)正在使事情變得更好而不是更糟”。隨著技術(shù)的進(jìn)步和人類認(rèn)知的不斷深化,我們有理由相信,信息偏向的問題將會(huì)得到妥善的解決。

參考文獻(xiàn)

①Flaxman, Seth,Sharad Goel, and Justin M. Rao.2016. “Filter Bubbles, Echo Chambers, and OnlineNews Consumption.” Public Opinion Quarterly 80(1): 298–320.

②Garrett, R.Kelly. 2009. “Echo Chambers Online? Politically Motivated Selective Exposureamong Internet News Users.” Journal of Computer-Mediated Communication14:265–85.

 

作者:蘇倫,公眾號(hào):正經(jīng)研究

本文由 @蘇倫 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自 Unsplash,基于 CC0 協(xié)議

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 論據(jù)蒼白的辯解。

    來自浙江 回復(fù)
  2. 我覺得擬態(tài)環(huán)境或者說信息繭房都是針對(duì)媒體/內(nèi)容分發(fā)者的。
    從內(nèi)容受眾的角度分析,認(rèn)為受眾只要自己動(dòng)動(dòng)手就能打破信息繭房,
    這和認(rèn)為窮人只要努努力就能擺脫貧困的觀點(diǎn)何其相似也。

    來自北京 回復(fù)
  3. “信息繭房”的這個(gè)概念的提出,更多的應(yīng)該是讓人們關(guān)注并預(yù)防這類事實(shí)的發(fā)生,避免在自己的信息世界里沉淪。這個(gè)概念是矛盾的,如果沒有這個(gè)概念,大家按照算法的發(fā)展就有很大的可能出現(xiàn)“信息繭房”。但當(dāng)這個(gè)概念被大眾所認(rèn)知后,大家都盡量避免出現(xiàn)這個(gè)問題,可能這個(gè)理論就又成了“偽概念”。
    基于此,我認(rèn)為 “信息繭房”是一個(gè)概念,但這個(gè)概念并沒有“偽”與“真”之分。如果非要給一個(gè)概念加上“偽”或“真”的標(biāo)簽,那是不是又有為某些算法代言的嫌疑呢?

    來自四川 回復(fù)
  4. 無限放大人們對(duì)信息的選擇性:當(dāng)所有媒介為了迎合一個(gè)人的胃口時(shí)都采用了同樣的算法,而這些算法又具有智能性,可能會(huì)把你之前忽略的某些信息標(biāo)記為“無用”信息而過濾,久而久而之把這種選擇性無限放大,就像昏君只愛聽奸臣的諂媚,奸臣會(huì)由著昏君的性子只說諂媚的話,這個(gè)人獲得的絕大部分信息都將局限在自己的“繭房”里。
    信息壟斷,關(guān)于這一點(diǎn)危害就更大了,蒙蔽人們的雙眼,讓人們自我束縛。奸臣?jí)艛嘈畔?,讓昏君問出“何不食肉糜”這樣的故事,歷史上有太多太多。而當(dāng)下的媒介算法又具有這樣的能力,而我們獲取信息的媒介的算法又趨同,雖然它不會(huì)像定時(shí)詐蛋突然baozha,但卻會(huì)一點(diǎn)點(diǎn)一天天的慢慢改變?nèi)藗儗?duì)信息的獲取,最終改變?nèi)藗兊恼J(rèn)知。

    來自四川 回復(fù)
  5. 反對(duì)作者的部分觀點(diǎn)。作者的核心觀點(diǎn)認(rèn)為:造成信息繭房的出現(xiàn)是由于人們自身的選擇性,并認(rèn)為當(dāng)下有很多的信息獲取渠道,不可能造成信息繭房,而人們的相信“信息繭房”是因?yàn)椤叭藗兲焐鷳峙滦率挛镆约八鶐淼母淖儭薄?br /> 受思維惰性的影響人們更喜歡看自己關(guān)注的東西,這是與生俱來,就像小時(shí)候比起看課本我們可能更喜歡看漫畫書,這是對(duì)信息的一種的選擇性,人性使然,無可厚非。
    但人們相信“信息繭房”更多的是因?yàn)楹ε滦畔⒚浇榈倪@種算法把人的這種惰性無限放大和對(duì)信息壟斷。

    來自四川 回復(fù)
  6. 不僅在減少選擇的時(shí)間,也在減少選擇的機(jī)會(huì),不覺得是個(gè)偽概念。

    來自四川 回復(fù)
  7. 注意力稀缺與技術(shù)向善應(yīng)該達(dá)到平衡。

    來自上海 回復(fù)
  8. 剛剛還不lqqqqqqqaaāaJcebb沒
    hh。 sFv 蠶寶寶變成 v 從男 mbmmbt

    回復(fù)
    1. 我女兒用了手機(jī)

      回復(fù)