AI 時代下的產品思維(一):AI不是神

1 評論 3389 瀏覽 39 收藏 16 分鐘

本文講述了AI 產品常出現的問題,并從中窺見背后的AI 產品思維。

目錄:

  • 序:產品思維
  • 一、普遍問題
  • 二、AI無神通
  • 三、機遇與挑戰
  • 后記:PDF資料

首先要問一下,什么是產品思維呢?

簡單的說,產品思維就是產品經理在打造產品時的思考方式。

說到這個詞,可能很多人都會聯想到梁寧在“得到”上的《產品思維30講》的課程。

梁寧老師為大眾科普了產品經理的思維方式。但是真正的產品經理,光學習科普知識還是不夠的,更需要深入專業和實戰。雖然很多企業都設置有產品專員的崗位,但可能由于職業分工的限制,培養效果并不好。反而那些由優秀的設計師、程序員和運營轉崗的產品經理,往往表現得更加出色。

究其原因,產品經理本身就是一個綜合性極強的崗位,優秀的產品經理不是學出來的,而是“打”出來的。關于產品經理的成長可以看之前文章:《我的產品經理能力模型和成長之路》

也有人說,產品經理是CEO的預備班,像馬斯克、貝索斯、喬布斯、雷軍、馬化騰、張小龍,不僅僅是卓越的產品經理,還是優秀的企業家。

那產品經理需要怎么樣的思維方式呢?

產品經理本質上負責的就是企業的產品創新。國際著名的設計咨詢公司IDEO,曾對于“創新”有這樣的定義,所謂“創新”就是要平衡人、商業、技術三方面因素,IDEO稱之為Design Thinking:

  1. 人的渴望:解決用戶的需求,讓產品擁有良好的體驗,比現有的解決方案要好上 10 倍;
  2. 商業的可行性:需要充分的考慮到商業價值,能夠不斷為企業創造收益;
  3. 技術的可實現性:使用合適的技術手段保質保量的實現產品功能;

產品思維就是創新的思維,Design Thinking也是我這些年來在產品崗位的最底層思維模式。不管產品經理是什么崗位出身,評判他是否專業,就在于他如何能平衡好三者之間的關系。

如今,AI 毫無疑問是當下炙手可熱的話題,許多產品也逐步的 AI 化。AI 時代的產品思維究竟有怎么樣的不同?

在寫這個話題之前,我也看過一些AI產品的書籍,大多都在講概念,講如何解決問題的偏少。而我的初心也很簡單,通過總結我在實踐中踩的一些坑,和大家一起去發現與以往不一樣的產品思維。少談一些概念,多談一些思路,也是我寫此文的一個目標。

Part .1 普遍性問題

在AI產品的實踐過程中,我們發現事情并沒有那么簡單。我們遇到了諸多的問題和挑戰。如果要使用AI,我們首先需要先將AI請下神壇,破除對它的迷信。當下的AI產品有三個較為普遍性的問題:容易偏離、可解釋性弱、可靠性差。

1. 容易偏離

2016年3月26日,微軟發布了一個聊天機器人 Tay。微軟原本是想讓 Tay 扮演一個少女角色,能夠在線與 Twitter 上面的任何人進行交流。除了聊天,Tay 還能完成向用戶講笑話、對用戶發給“她”的照片進行評論等其他任務。

剛上線的時候,Tay 說:“世界你好!”并且@網友說:“見到你們太激動啦,人類超酷的”,但只用了一天的時間從“純情少女”變為反人類的“納粹”,微軟在上線 16 小時之后就不得不把 Tay 下線。

可以確定的是,工程師在編程時并沒有為她編入這些亂七八糟的極端言論。那為什么會產生如此的錯誤?其原因是少數用戶利用 Tay 模仿說話的漏洞,對 Tay 進行了錯誤的訓練。

Tay 仿佛一面鏡子,她反應的不是微軟的技術,而是網友的人性的惡的一面。在面對真實世界的時候,即使是有最先進算法的機器人也會措手不及。

2. 可解釋性弱

2017 年 6 月,Facebook 人工智能研究所(FAIR)使用機器學習方法,對兩個聊天機器人進行對話策略的迭代升級,Facebook 的人工智能研究院 (FAIR) 想要訓練一個聊天機器人,讓它學會談判。但很快,研究人員就發現,聊天機器人正在創造他們人類無法理解的語言。

同年 7 月,Facebook“關閉”了這個引發廣泛爭議的智能對話機器人項目,避免機器人“非人”的道路上越走越遠。Facebook 的這個機器人使用的生成式對抗網絡(GAN, Generative Adversarial Networks )是一種深度學習模型。這個模型至少兩個模塊,通過互相博弈學習產生良好的輸出。一個優秀的 GAN 應用需要有良好的訓練方法,否則可能由于神經網絡模型的自由性而導致輸出不理想。由于深度學習是一個黑盒,研究人員無法像傳統程序員一樣通過修改代碼邏輯來改 bug,只能暫停項目,重新設計模型方案,盡可能避免同類問題的發生。

3. 可靠性差

Uber 為了加快商業化的步伐,其測試的無人駕駛汽車數量就不斷增加。2018 年 3 月 26 日,一輛 L4 自動駕駛汽車(改造于沃爾沃 XC90)在亞利桑那州的公共道路上撞擊一位行人并致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。

在汽車界,通常將自動駕駛分類六級,分別是:L0 是無智能、L1 輔助駕駛、L2 部分自動駕駛、L3 條件自動駕駛、L4 高度自動駕駛、L5 完全自動駕駛。

自動駕駛汽車需要有一堆復雜的設備做支撐。只要有一個模塊出問題,就可能釀成大錯。

根據美國國家交通管理局NTSB認為,該車禍的主要原因為Uber淡薄的安全意識,車輛沒有開啟緊急制動系統,沒有及時對安全員進行監督————事故發生時,車上安全員仍在看視頻而非及時采取措施。導致了這場悲劇。

近幾年,特斯拉也事故頻發,盡管如此,依然經常會聽到,駕駛員在開著自動駕駛睡著飆車的新聞。下圖為一個用戶喝醉后開著特斯拉的自動巡航,在邊睡覺邊在高速上狂奔。

現實不是游戲,當“無知”的人類將生命交給 AI 的時候,他們是否意識到:萬一系統出了 bug ,生命再也無法重來?在那些講給投資人故事之外,可能自動駕駛拷問的并不是技術,而是資本與人性的貪婪。

Part.2 AI無神通

上面提到的問題只是冰山一角。Al 也并非沒有優勢,機器可接受的輸入數據范圍要比人類大得多,計算機處理數據能力比人類強大。視覺識別和語音識別等一些領域,AI 幾乎達到了人類水平。

但AI 依舊難以達到智能生命體一樣的智能。究其原因,計算機初衷是為了解決邏輯計算問題,而智慧生命體的智能是通過上千萬年進化習得的。前者善于邏輯計算,后者善于適應環境。

而如今人工智能卻越來越多地在模擬人類的本能行為,才導致“莫拉維克悖論”也愈發明顯。

莫拉維克悖論是指:

人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理,但是無意識的技能和直覺卻需要極大的運算能力。也就是,要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的。

其實,AI的底層只是數據和算法。多數 AI 模型解決是特定領域的分類和聚類的問題,這可以類比人類的歸納法和演繹法。

由于機器缺乏對事物理解能力,導致應變能力和遷移能力非常弱,AI 并不會像人類真正體會到事物背后的含義。

AI 能將廣告上的董明珠,誤判為亂穿馬路的行人,也不足為奇。因為從數據角度,AI確實在馬路上捕捉到了人臉。

另外,機器也不會有情感感受。例如,AI可以識別出一只貓,它可以給這張圖打上一堆的標簽,但并不會像人類一樣,覺得這只小貓有多么的可愛。

有許多藝術家開始使用所謂的“神經網絡軟件”來創作藝術品,也有些以天價拍賣,但AI只是藝術家的創作工具,他們通過導入訓練素材,不斷調整參數來獲得作品,本質上和 用3ds Max做效果圖渲染沒太大區別。所以,也不代表AI有創作力。

現階段,AI 做不了事情還有很多。它只是一個工具,脫離了人類,AI什么也不是。人類也不用擔心 AI 像電影中講的那樣反叛和統治人類。

Part.3 機遇與挑戰

有學者分析了未來 10 年內,各行各業被 AI 取代概率。自工業革命以來,人類從未被如此大規模的被機器取代。

雖然看上去有點嚇人,但對于 AI 產品創業者來說卻是一個不錯的機遇,但把握住這個機遇并非易事。很多時候,新技術的應用并不會一帆風順。

根據高德納總結的“新興技術炒作周期”規律,新技術往往會經歷萌芽期、膨脹期、破滅期、爬升期、穩定期,5個階段。

歷史上,人工智能的命運也是“三起兩落”。接下去是否會迎來新的寒冬,誰也不知道。

但是我們把不成熟的新技術放置使用到產品中,對產品經理本身就是一個巨大的挑戰。

在當下,我們不應過于理想化AI的能力,我們更需要用冷靜和批判性的眼光,去審視 AI 技術的發展和應用。

當我們遇到一個與AI相關需求的時候,與其陶醉于自我,不如提出質疑反而會顯得更加有用:如果AI技術實現得不好怎么辦?

究竟要怎么辦?請看下一期:AI時代的產品思維(二):新的挑戰

#專欄作家#

PM熊叔,微信公眾號:PM熊叔,人人都是產品經理專欄作家。教育類產品產品經理出身,學過設計,做過開發,做過運營的產品經理。

本文原創發布于人人都是產品經理。未經許可,禁止轉載

題圖來自 Unsplash,基于 CC0 協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. ai,區塊鏈,從來不看好

    來自四川 回復