貼上AI標簽的評論區,正在剝奪我們平等言論的自由

1 評論 15144 瀏覽 11 收藏 13 分鐘

許多用AI來管理評論區的平臺談到技術方面都會說到現在可以利用AI可以對用戶進行標簽,有點兒像所謂的社會信用體系。但這種看似合理的信用體系背后的問題是:爭了好幾百年來的平等言論權就這么被AI再次剝奪了?

自古站著說話都是不會腰疼的,在這樣一個鼓勵質疑的社會氣氛當中,戾氣彷佛成了最好的鼓勵。去中心化的時代,人人都有麥克風,網絡發言的成本達到了歷史最低。

近日,知乎正用AI識別“答非所問”和“不友善”又被媒體反復引用。前不久,羅永浩“精日沒啥”的言論相繼被北京日報和廣州日報點名批評,微博的評論區“錘粉”、“錘黑”的論戰比羅永浩本人的演講還“好看”,但是這種“好看”是靠著你來我往的火藥桶攻擊而炒起來的熱度。廣州日報官方微博下面,“小心錘蛆”評論排在熱評的第一位,“智障”、“走狗”、“SB”的字眼也屢見不鮮。

微博的罵戰如此壯烈讓“路人”都不忍直視,更不談上不來理性的分析羅永浩是否是精日,精日是什么的問題。微博距離中國言論環境下的“公共領域”還差得很遠。

一、內容管理,要從評論區覓得曲徑通幽處

評論區比內容本身還好看,現在已經不僅僅是個口上的噱頭了,各大社交和問答平臺都開始注意到評論區的運營。此前,為了提高評論審核的效率,有效管理微博評論,微博也開始有所動作,面向頭部用戶和正式會員用戶開通評論審核的功能,在開放此功能之后,用戶可以對自己微博下的評論實現評論先審后放。

因此,如果把文章本身稱為“第一內容區”的話,那么評論區儼然已經成為蓬勃發展的“第二內容區”,今天注重評論區的管理開始變得越來重要。

在4月的GMIC大會上,知乎合伙人、高級副總裁李大海做了一個分享,稱知乎正在打造“智慧社區”,并透露出:在知乎的內容社區當中,AI已經可以開始進行語義識別和語境判斷。因為單單依賴人工的力量來管理內容,實在不是一個高效的選擇。

在知乎里面,現在有一個2歲多的機器人叫“瓦力”,目前這個機器人可以在線上快速響應答非所問和不友善的內容,減少像歧視、惡意貼標簽、辱罵等等低質內容對用戶的干擾。但是目前受到NPL(自然語言處理)自身的局限性和平臺運營存在的相應問題,這個智慧社區還存在著不少問題。

如果說人工智能算法能夠通過監測人們說話時的聲學特征,比如發音頻率、聲音高低,以及語氣的變化,來識別人類說話的情緒類型是一項很了不起的技術,那么直接通過NPL來鑒定人類的說話情緒則是更難上加難的操作。因為一個臟字不帶,一個敏感詞都沒有的句子,AI很難總結出它們的共同特征從而有針對性的挑選出來作為負面言論的代表,真正成為評論區的“清道夫”。

另外,目前知乎的機器學習方式是利用知乎的中文語料庫,調動用戶積極對語料進行手動標注來訓練AI,這在機器的監督學習中是必不可少的一步。

但新的技術正在涌現,比如強化學習和in-streamsupervision,數據可以在自然使用過程中獲得標注?;蛘?,知乎還可以學習科大訊飛建立語音云平臺一樣,引入語料云平臺,這樣可以從其他更廣泛的渠道以更快的速度發現更新的語料。

因為等到知乎中文語料庫中有足夠的新興語料可以讓機器進行學習時,代表這類語料的存在在平臺上已經比較廣泛了,如果此種語料是惡性的,那么則說明評論的內容生態已經遭到了一定污染。

二、在評論區,AI與人的關系還值得細嚼

把目光投到國外,國外的那些頂級媒體則更早就開始重視到評論區的重要性并開始用技術對評論區進行打理。

紐約時報與Jigsaw(谷歌Alphabet旗下科研團隊)合作,并牽頭華盛頓郵報、Mozilla基金會成立了The?Coral?Project(珊瑚項目),研究如何改進在線評論,并孵化一系列開源工具為各大新聞編輯室提供技術支持。2015年時,紐約時報采用的評論體系會依靠算法對不同用戶的評論進行優先級排序,并且決定哪些用戶的評論可以不用經過較長時間的人工審查就可以發布。

但是,人工智能到底是藍海還是深坑還需要時間的檢驗,我還想在此提出利用人工智能管理評論內容生態的兩個討論點:

1.AI的背后是人,如果人不想解決某個問題,那么AI也只是噱頭和擺設

最近,在某草根公眾號中看到一篇文章,名叫《欲加之罪,何患無詞》,談論的是有關喜馬拉雅APP內容付費的問題,該公眾號的主人在喜馬拉雅上傳了自己解讀書籍《烏合之眾》音頻,后突然因版權投訴而被下架了。

喜馬拉雅方面的客服稱因為已經有解讀該書的付費音頻存在,所以再上傳解讀該書的音頻就算作是侵權。對于某一個單一的知識付費內容能不能壟斷市場暫且不論,這個唯一被平臺認可的《烏合之眾》付費音頻下面的評論卻顯示出這個付費的內容并不盡如人意。

但是平臺不顧聽眾在評論區的反饋,完全沒有用心傳播優質內容的匠心。如今許多平臺都嘗試使用AI進行評論區的管理,但是AI要執行的始終是人的想法,就算AI通過各種識別的功能發現了這個問題,如果人并不想解決這個問題,那么AI的設立又還有什么用處呢?

2.在評論區,AI通過識別用戶言論來給每一個用戶貼標簽,這一點很難說不是在將每個人的言論權利做一個高矮次序的排列

許多用AI來管理評論區的平臺談到技術方面都會說到現在可以利用AI可以對用戶進行標簽,有點兒像所謂的社會信用體系。但這種看似合理的信用體系背后的問題是:爭了好幾百年來的平等言論權就這么被AI再次剝奪了?

站在社會學的角度,我們常常在討論的是標簽對人性的壓抑以及標簽給人帶來的種種痛苦,并思索著如何才能讓社會環境進一步“去標簽化”。但我們沒注意到的是:AI正在利用我們在網絡留下的數據對我們進行標簽化。

如果,某個人曾經發布過一些負面言論,那么經過AI的識別判定后,他的言論可能今后永遠只能在評論區的下游飄蕩。潛在地,這個人是不是相當于被間接削弱了言論權呢?你可以發言,但是不會有人看得到,這也代表了在網絡社區當中話語權會被進一步中心化。

所以,AI也應該該考慮一下去標簽化的問題,并建立去標簽化的機制。每個人都有被原諒的機會,但是數據會知道這一點嗎?

技術非但沒有使信息自由流動,反而建立了更加龐大的信息孤島。在微信當中,只有互為好友的人才能看到在同一個人朋友圈下面的評論互動,這樣的評論機制在微信當中建立起的無數個不同的小圈子,小圈子之間隔著高高低低的圍墻。

微信雖然幫助我們連接了更多的人,但是卻把父母給隔離了起來。她/他能夠看到的評論區永遠只有自己一個人,想要通過你的朋友圈了解你的生活,了解你的朋友和外面的世界,但是技術卻阻斷了這么簡單的念想,他不知道你平常是怎么和朋友打趣,甚至不知道你說的佛系,在評論區看不到更多的解釋,還以為你要去出家,趕緊打個電話過來詢問。但為了避免你麻煩的解釋過程,技術還可以建立起更多“去麻煩”的機制,比如分組可見。

對于我們而言我們是在提高自己的生活效率,更好地管理自己的生活,但是對于父母而言,他們只是被強制削去了知情權,這實際就是剝奪發言權的前一步。

在日常的信息獲取當中,剝奪話語權的方式是很隱晦。

它通常會先剝奪你的知情權,今日頭條的人工智能算法推薦信息,過度迷信算法的精準性,實則把用戶困在它制造的信息孤島。由互聯網所打破的信息壁壘,在今日頭條的作用下被重新建立起來,只是這背后更為深刻的是,同質信息的轟炸阻斷了那些沒有主動獲取信息能力的人上行的通道。

在這樣龐大的信息社區當中,平臺需要建立自己的人文價值觀和社會責任,一旦當它們的價值開始混亂,錢就會成為唯一的尺度。人工智能是技術的又一次升級,但是人工智能不能成為一切腐朽舊思想的避難所,不能包庇價值觀的混亂,也不能縱容技術平臺對用戶話語權的剝奪。

如何在保護話語權和保護平臺社區環境之間尋求一個平衡點,是運用AI管理評論區需要思考的第一個問題。

評論區的“黃金屋”和“顏如玉”在今天是顯而易見的,但平臺的內容運營者們想要在這上面使力則還需要繼續探索。AI幫助進行智能評論區管理是件好事,但在AI的背后還潛藏著太多未解的難題,管理者們一定要帶著問號去利用好AI,讓AI成為內容管理的福音。

【完】

 

作者:楊蘇穎,微信公眾號:智能相對論

本文由 @楊蘇穎 原創發布于人人都是產品經理。未經許可,禁止轉載

題圖來自網絡

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 文章寫得挺好,不過我有一個觀點不是很同意。分組或者只能看到共同好友的贊和評論的軟件,對于很多人來說,的確是非常重要的需求。父母有知情權,但我們也有隱私權。社交壓力已經很大了,不是每個人都愿意讓人看到自己的所有動態,了解自己的好友圈子。如果真的有心讓父母了解自己的生活,多打打電話或者設置父母可見吧。

    來自廣東 回復