搶了人類編輯飯碗的AI算法,會完勝嗎?

2 評論 3566 瀏覽 6 收藏 20 分鐘

AI奪權(quán),“備胎轉(zhuǎn)正”的戲碼,在媒體行業(yè)再次上演。AI將在取代人類編輯的戰(zhàn)斗中取得最后的勝利嗎?本文從AI算法推薦的上位和爭議中,來探究下AI算法與人工編輯推薦可能的勝負(fù)結(jié)果。

5月底,微軟宣布將解雇50名從事新聞報(bào)道篩選和策劃的編輯,取代他們的正是已經(jīng)與這些人類編輯們共同工作了一段時間的AI編輯。

搶了人類編輯飯碗的AI算法,會完勝嗎?

受此影響,英國新聞協(xié)會負(fù)責(zé)在MSN網(wǎng)站及微軟Edge瀏覽器上維護(hù)其新聞主頁的約27名編輯,被告知將在6月底被解雇。

盡管微軟特別聲明,此次裁員和新冠疫情大流行導(dǎo)致的新聞媒體的廣告收入下滑,沒有直接相關(guān),但通過AI技術(shù)來削減新聞團(tuán)隊(duì)的人力成本則已經(jīng)是一個不爭的事實(shí)了。

對于這些無奈“中槍”的新聞編輯來說,曾經(jīng)為他們提供各種新聞、篩選建議的AI算法推薦,竟然是這樣一個“暗中磨刀”的心機(jī)AI。

在報(bào)道中,一位即將被辭退的編輯人員強(qiáng)調(diào),完全用AI替代人工是有風(fēng)險的,因?yàn)橹挥腥斯ぞ庉嫴拍艽_保網(wǎng)站不會向用戶顯示暴力或不適當(dāng)?shù)膬?nèi)容。這對于AI來說,這確實(shí)會是一個問題,因?yàn)樗瞄L推薦那些符合人性的內(nèi)容,但卻無法識別一些潛在的社會倫理風(fēng)險。

當(dāng)然,微軟自從1995年推出MSN新聞業(yè)務(wù)以來已有25年的時間?,F(xiàn)在在全球至少有800多名編輯仍然在從事著新聞的篩選和推薦工作。未來微軟的新聞團(tuán)隊(duì)仍然還會以人工編輯和AI編輯共同協(xié)作的方式,只是AI取代人工編輯的趨勢可能在明顯加速。

站在普通吃瓜群眾的角度,我們也正被各種新聞資訊、視頻平臺的算法推薦所支配,最顯著的體會就是我們花費(fèi)越來越多的時間在那些讓我們“欲罷不能”的內(nèi)容上面。

難道說,AI將在取代人類編輯的戰(zhàn)斗中取得最后的勝利嗎?我們從AI算法推薦的上位和爭議中,來探究下AI算法與人工編輯推薦可能的勝負(fù)結(jié)果。

信息分發(fā):從“人找信息”進(jìn)入“信息找人”

“太陽底下無新事”。算法推薦,盡管只是近幾年隨著移動互聯(lián)網(wǎng)內(nèi)容應(yīng)用的爆發(fā)才興起,但其實(shí)質(zhì)上仍然只是人類進(jìn)行信息分發(fā)的一種新形式,而我們對信息分發(fā)的需求自古就有了。

赫拉利在《人類簡史》中提出一種智人種之所以戰(zhàn)勝其他物種的新“假說”,那就是我們特別擅于“八卦”和“聊天”?!鞍素浴庇兄谧屨麄€社群建立情感紐帶,團(tuán)結(jié)起來共進(jìn)退,“聊天”有助于經(jīng)驗(yàn)的傳授,外出的告訴村里人哪里有危險,老獵人教會小獵人如何抓獵物。這就是最天然的信息的社交分發(fā),極大提升了人類之間的協(xié)作效率和文明的延續(xù)。

此后我們經(jīng)歷了口耳相傳的史詩,結(jié)繩記事、甲骨篆刻的符號記錄,以及再后面的文章典籍?,F(xiàn)代文明的興盛得益于印刷術(shù)的不斷升級,而到了近兩百年左右,新聞報(bào)紙、圖書出版、廣播電視等全新的信息分發(fā)媒介誕生,構(gòu)成了當(dāng)代社會的信息分發(fā)的基本版圖。

互聯(lián)網(wǎng)的出現(xiàn)又突破了信息分發(fā)的時空界限,讓信息可以實(shí)現(xiàn)永遠(yuǎn)在線、全球同步的傳遞。不過傳統(tǒng)互聯(lián)網(wǎng)的信息傳遞仍然延續(xù)了物理世界的范式。比如,互聯(lián)網(wǎng)早期興起的門戶網(wǎng)站和搜索引擎,就是借鑒了圖書館的目錄分類和和百科全書的條目索引。

新聞資訊等信息的分發(fā)依賴權(quán)威化、中心化組織的采集和報(bào)道,用戶的信息知識的獲取依賴主動地瀏覽和篩查。

隨著信息的爆炸式增長和人們信息消費(fèi)的碎片化趨勢增長,“人找信息”的方式遭遇了全新挑戰(zhàn)。算法推薦和相應(yīng)的內(nèi)容分發(fā)的平臺的出現(xiàn),開啟了通過人類通過機(jī)器算法推薦的方式進(jìn)行“信息找人”的全新模式。

1995年,尼古拉·尼葛洛龐帝在《數(shù)字化生存》當(dāng)中帶有預(yù)言般的“我的日報(bào)”的想法,現(xiàn)在成為了現(xiàn)實(shí)。信息分發(fā)正在朝著滿足受眾用戶個性化的需求的方向發(fā)展。

幾乎就在同時,美國明尼蘇達(dá)大學(xué)的團(tuán)隊(duì)開發(fā)出了第一個自動化推薦系統(tǒng)GroupLens,成為協(xié)同過濾推薦算法的最早提出者。此后,算法推薦系統(tǒng)在亞馬遜的電商平臺、Netflix的視頻流媒體服務(wù)當(dāng)中也很早便投入了使用。

2016年,可以算是新聞算法推薦崛起的元年。這一年,YouTube將深度神經(jīng)網(wǎng)絡(luò)應(yīng)用到內(nèi)容推薦系統(tǒng)中。這一年,我國新聞資訊信息分發(fā)市場上,算法推送的內(nèi)容第一次超過50%。

也正是這一年,率先應(yīng)用信息算法推薦的今日頭條,終于從四大門戶和BAT支持的媒體平臺中突圍,實(shí)現(xiàn)了6000萬的日活。

但此后算法推薦本身一直爭議不斷。在2017年9月,人民網(wǎng)特意用三篇社評的篇幅批評了今日頭條這類新聞應(yīng)用的“算法推薦”。社評里自然首先肯定了算法推薦順應(yīng)時代潮流,滿足人們個性化、多元化的信息獲取需求,但又專門指出了以下的問題:

算法推薦會縱容低劣內(nèi)容的泛濫。一些推薦算法只會迎合大眾的獵奇心理,最后只會反復(fù)推送那些低質(zhì)量內(nèi)容,最終“劣幣驅(qū)逐良幣”,使得傳統(tǒng)媒體的優(yōu)質(zhì)、全面的資訊信息無法觸達(dá)大眾用戶。

推薦算法中所謂的“個性化”推薦,只會機(jī)械式地推薦一些關(guān)聯(lián)性強(qiáng),但內(nèi)容單一的信息,甚至?xí)^濾掉那些不熟悉、不認(rèn)同的信息,造成“信息繭房”。

搶了人類編輯飯碗的AI算法,會完勝嗎?

算法推薦的信息抓取不僅可能涉及到大量的版權(quán)問題,甚至還可能走向“創(chuàng)新的反面”。就是智能推薦將走向媚俗化和庸俗化,充斥大量缺乏獨(dú)立思考、深度觀察的膚淺內(nèi)容,反過來破壞社會的創(chuàng)新發(fā)展。

人民網(wǎng)的批評,同樣也代表了眾多傳統(tǒng)媒體和眾多精英人士的觀點(diǎn),而且這些現(xiàn)象確實(shí)也符合我們大多數(shù)人的直觀印象。但是在附和之前,我們?nèi)匀恍枰M(jìn)一步了解下算法推薦的基本方法和發(fā)展,搞清楚人們?yōu)槭裁磿绱巳菀妆凰惴ā榜Z服”。算法推薦又該如何突破自己的局限而持續(xù)進(jìn)化?

算法推薦:人性的,太人性

信息分發(fā)的本質(zhì),就是有效地聯(lián)接人和信息。而算法推薦的本質(zhì)就是運(yùn)用機(jī)器算法實(shí)現(xiàn)大規(guī)模的自動化信息分發(fā),讓信息自動找到人。

因此,算法推薦需要解決三個問題:了解信息,了解人,了解人何時何地需要這些信息。不過,歸根到底,算法推薦的核心還是了解人,即了解人的使用習(xí)慣、興趣愛好,再通過算法預(yù)測用戶可能感興趣的信息和話題進(jìn)行加權(quán)推薦。

新聞信息的主要推薦算法都是來自于一些數(shù)學(xué)算法。在各大新聞資訊聚合類應(yīng)用上主要使用以下這些算法:

(1)內(nèi)容推薦

這是資訊類推薦最常用到的算法。算法系統(tǒng)通過對文本內(nèi)容進(jìn)行標(biāo)簽設(shè)定,一旦用戶對相關(guān)內(nèi)容進(jìn)行過點(diǎn)擊、瀏覽、點(diǎn)贊、評論、分享等操作,系統(tǒng)就會對用戶打上相應(yīng)的興趣標(biāo)簽。這樣就可以將更多相關(guān)標(biāo)簽的文本進(jìn)行用戶標(biāo)簽的匹配。比如,一個看過“德甲”內(nèi)容的用戶,就會得到更多關(guān)于“德甲”的信息推送。

內(nèi)容推薦,如果先期無法獲取到用戶的興趣標(biāo)簽特征,就會容易遭遇冷啟動問題。因此,內(nèi)容推薦之外還需要其他推薦方式。

(2)協(xié)同過濾推薦

這是推薦系統(tǒng)中應(yīng)用最早和最為成功的技術(shù)之一,采用了我們常識理解的“人以類聚,物以群分”的思路,即找到用戶的好友或者與其相似特征的其他用戶那里,將他們感興趣的內(nèi)容來推薦給該用戶。

搶了人類編輯飯碗的AI算法,會完勝嗎?

協(xié)同過濾推薦采取了經(jīng)驗(yàn)共享的方式,避免了內(nèi)容推薦中存在著內(nèi)容分析不準(zhǔn)確、過度單一等問題,可以為用戶發(fā)現(xiàn)潛在的興趣偏好的內(nèi)容。

(3)熱門推薦

熱門推薦來自于傳統(tǒng)媒體的思維方式,主要是基于當(dāng)前熱點(diǎn)新聞事件和話題進(jìn)行的內(nèi)容推薦。區(qū)別于傳統(tǒng)媒體由新聞編輯進(jìn)行的人工篩選,新聞聚合平臺的自動算法推薦更在于通過數(shù)據(jù)統(tǒng)計(jì)的方式將一段時間內(nèi)點(diǎn)擊量、關(guān)注度最高的新聞推送給用戶。

此外,還有像一系列基于規(guī)則、效用、知識以及各類組合的推薦算法來實(shí)現(xiàn)對于用戶的個性化推薦。

也就是說,對于那些使用了算法推薦的內(nèi)容平臺,相當(dāng)于有了一手“秘密武器”來對付處在信息焦慮和信息饑渴的移動互聯(lián)網(wǎng)用戶。即使你是一個新手用戶,平臺對你了解甚少,它也會很快通過讓你定制興趣標(biāo)簽、嘗試不同類型的內(nèi)容推送,AB測試等方式來實(shí)現(xiàn)所謂“冷啟動”,找到你的真正愛好。

但是,最根本上來說,像今日頭條這樣的內(nèi)容平臺存在著一個最基本的“原罪”就是,平臺存在的目的是為了攫取盡可能多的用戶時間和注意力,而不是為了讓用戶獲得基本的資訊信息之后就轉(zhuǎn)身走人。

新聞聯(lián)播還有個準(zhǔn)時準(zhǔn)點(diǎn)的結(jié)束,而這些內(nèi)容平臺卻可以隨時刷新、無限供應(yīng),獲得流量才是其運(yùn)營的本質(zhì)。所以,平臺的推薦算法就會盡可能討好用戶,利用用戶的人性弱點(diǎn)來進(jìn)行信息的喂養(yǎng)。

這也正是內(nèi)容平臺經(jīng)常為人們所詬病的問題:標(biāo)題黨橫行、洗稿文章泛濫,色情低俗這類深諳人性弱點(diǎn)的內(nèi)容層出不窮。一旦因?yàn)楹闷鏋g覽相關(guān)內(nèi)容,算法就會全力推薦更多相關(guān)信息。這

也是所謂“信息繭房”的根本原因,算法縱容了人性,人性又反過來固化了認(rèn)知,導(dǎo)致一個用戶就在自己熟悉的信息圈里打轉(zhuǎn)。這也是很多人對內(nèi)容平臺深惡痛絕,但看起來又欲罷不能的深層原因。

但是需要指出的是,算法推薦本身不必為內(nèi)容平臺的這些問題背鍋,道理就如同“人用刀殺人,而罪責(zé)在人而不在刀”一樣簡單。其實(shí),通過算法推薦本身的演化,是可以消解這種用戶的信息“偏食”行為和“信息繭房”問題的。

算法推薦的自救:人機(jī)協(xié)作是正途

無論對于算法推薦的批評有多么嚴(yán)重,但是算法推薦的流行和普及已經(jīng)是一個不爭的事實(shí)。算法推薦的真正進(jìn)步之處就在于改變了信息分發(fā)的方式,即從一種中心化的“責(zé)編把關(guān)”的分發(fā)方式變成基于用戶個性化的機(jī)器智能推薦的“算法把關(guān)”的分發(fā)方式。

這種分發(fā)方式帶來的是信息分發(fā)效率的極大提升,當(dāng)然同時也帶來了傳統(tǒng)權(quán)威、專業(yè)媒體的分發(fā)“算法”的失效和分發(fā)內(nèi)容權(quán)重的下降。

但是從目前來看,傳統(tǒng)權(quán)威媒體已經(jīng)不再抱有一開始的否定和打壓態(tài)度,而是以積極的姿態(tài)擁抱新媒體平臺,參與到這場算法推薦的流量爭奪當(dāng)中,并且正在憑借其官方身份和專業(yè)內(nèi)容,在新媒體時代重新獲得用戶認(rèn)可。

對于算法推薦帶來的“劣幣驅(qū)逐良幣”的問題,這之前確實(shí)是算法推薦的弱項(xiàng),最早的一些機(jī)器學(xué)習(xí)算法和推薦算法是無法識別文章內(nèi)容是否涉嫌標(biāo)題黨、假新聞、洗稿、低俗、黃暴等內(nèi)容。這些低劣內(nèi)容其實(shí)對于平臺而言,也是一直在努力清除的隱患。

搶了人類編輯飯碗的AI算法,會完勝嗎?

畢竟平臺的發(fā)展不能僅靠這些內(nèi)容來支撐,反而會帶來眾多的版權(quán)、投訴和負(fù)面輿情?,F(xiàn)在的平臺都已經(jīng)加大對內(nèi)容安全機(jī)制的建設(shè),其中包括高風(fēng)險內(nèi)容的識別模型技術(shù)的廣泛應(yīng)用以及大規(guī)模人工審查核驗(yàn)。去年,就連同樣執(zhí)著于算法推薦的Facebook也因?yàn)榧傩侣劮簽E而開始使用人工編輯來對內(nèi)容進(jìn)行審查。

對于“信息繭房”而言,正如近日北師大教授喻國明在一篇《算法推薦必然導(dǎo)致“信息繭房”效應(yīng)嗎》的論文中指出的,算法推薦不是“信息繭房”形成的必要條件,算法推薦在“信息繭房”生成后并不起增效作用,甚至還起到了一定的消解作用。

簡單來說,“信息繭房”的存在并不是因?yàn)樗惴ㄍ扑]的出現(xiàn)而出現(xiàn)的,傳統(tǒng)社會的單一信息、嚴(yán)格的媒介控制以及個人的信息“偏食”傾向都是造成“信息繭房”的原因。

反而,在算法推薦時代,個體用戶還有著來自傳統(tǒng)媒體渠道、社交媒體渠道等多重信息來源,更加不容易制造這種“信息繭房”的生成機(jī)制。同時,隨著算法推薦技術(shù)的不斷迭代,用戶的潛在信息需求也在不斷的挖掘和豐富。

最終,在算法推薦和人工編輯推薦的取舍較量中,我們其實(shí)更應(yīng)該推崇一種帶有“人文理性”和“技術(shù)理性”的可信算法推薦系統(tǒng)。

顯然,算法仍然更容易給用戶提供一種“沉浸式”的信息閱讀體驗(yàn),而算法和人的互動關(guān)系,本質(zhì)上是“算法背后設(shè)計(jì)者的價值邏輯或意識形態(tài)與用戶的互動”。這就要求在算法設(shè)計(jì)者意識到“信息繭房”可能帶來的危害之后,主動尋求一種更加優(yōu)化的解決方案,來建立可信的算法推薦的系統(tǒng)。

最主要的是在算法推薦之外,堅(jiān)持人機(jī)協(xié)同,即重視人工編輯在算法推薦基礎(chǔ)之上發(fā)揮應(yīng)用的作用,包括提供新聞專業(yè)主義的理念,設(shè)置更多的公共議題;提供更具權(quán)重的正反觀點(diǎn)信息;提供更多隨機(jī)視角的信息等等。

回到微軟新聞部門的裁員問題,之前是模式是AI算法來輔助人類新聞編輯,而未來更可能是人類新聞編輯來輔助AI算法,來優(yōu)化內(nèi)容推薦的質(zhì)量。顯然,AI算法推薦不可能完全取代人類編輯的工作。平臺也不會放心將自身的信譽(yù)和內(nèi)容的全部選擇權(quán)都交給AI算法。

一項(xiàng)技術(shù)的發(fā)明和應(yīng)用在人類的發(fā)展歷史上從來只起到一種助燃劑或催化劑的作用。

對于AI的算法推薦來說,它既不會毀掉傳統(tǒng)媒體的生存根基,也不會徹底將人類變成鼠目寸光、各自為營的傻瓜。

其實(shí),如果我們認(rèn)真觀察,當(dāng)你發(fā)現(xiàn)身邊的老人開始整天盯著手機(jī),關(guān)注自己城市發(fā)生的各種事情,關(guān)心政府出臺的各種政策,關(guān)心自媒體里各種奇葩狗血的故事,未嘗不是對他們生活和精神的一種解放,至少更加開闊了眼界,不用再盯著家里的雞毛蒜皮。

而對于那些因?yàn)锳I而事業(yè)的媒體人,更加不必悲觀嘆氣。夜深人靜的時候,筆耕不輟地開始你的創(chuàng)作,這些內(nèi)容平臺可能會應(yīng)許你更加光明的前景。

 

作者:腦極體,微信公眾號:腦極體

本文由 @腦極體 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 分析和闡述都那么精彩

    來自北京 回復(fù)
  2. 昏昏沉沉

    回復(fù)