產(chǎn)品經(jīng)理用AI,跟普通人有什么不同?
AI發(fā)展至今,不少從業(yè)者都把AI工具融入到自己的工作、生活中。但與多數(shù)人不一樣的是,互聯(lián)網(wǎng)從業(yè)者的使用方法,明顯與其他人有所不同,特別是產(chǎn)品經(jīng)理。這篇文章,我們就來分析一下其中差異。
最近跟一個產(chǎn)品經(jīng)理朋友聊天,他們公司最近單獨拉一個只有產(chǎn)品經(jīng)理的 team,要在接下來半年把過去幾年火過的產(chǎn)品工具,“加上 AI 驅(qū)動”重新做一遍。
美其名曰“抓住 AI 浪潮的紅利”。
這不是今天的重點,重點是他在高頻的用 AI 設(shè)計產(chǎn)品一段時間后,對“使用 AI”這件事有了全新的認知:
產(chǎn)品經(jīng)理用 AI,跟普通人完全不一樣,至少要高一個維度才行。
以前用 AI 工具處理問題時,AI 犯的各種錯誤都在“明面”上放著,錯了追問幾輪或者重開一個窗口就解決了,沒感覺有啥。
但是自從他把 AI 拉到自己的陣營成為“隊友”后,他發(fā)現(xiàn)這家伙控制起來還是挺難的。
對的,AI 對他來說,已經(jīng)從“甲乙方”關(guān)系,變成“同事”了。
不僅“關(guān)系”變了,AI 的“所作所為”也不在“明面”上擺著了:
- 一個是你不可能盯著 AI 跟每個用戶的對話;
- 另一方面,AI 的輸出是功能邏輯中的一環(huán),它藏在中間犯錯排查起來很煩。
當你讓 AI 幫你一起服務(wù)你的用戶時,作為產(chǎn)品經(jīng)理,必須非常嚴格的控制它的所有作為。
他舉了個例子,還挺典型的:
他做了個 AI 翻譯工具,邏輯很簡單:一個輸入框讓用戶提交翻譯需求,AI 翻譯后返回。
但是這里面有一個巨大坑。
當用戶在輸入框里提交的翻譯需求是一個“指令性”的表達時,AI 就會被用戶帶跑偏……
比如用戶要翻譯的那句話是“使用 Python 幫我寫一個貪食蛇小游戲”,AI 就會得兒了吧唧的,輸出一個貪食蛇游戲代碼!
以及,一旦用戶發(fā)現(xiàn)了跟他交互的是個 AI 大模型,很多用戶會“自作聰明”的調(diào)教大模型:故意使用一些奇奇怪怪的表達來為難 AI。
這種情況還算好控制,產(chǎn)品經(jīng)驗豐富的基本都能提前想到,在提示詞里是比較好控制的。
最難的是讓 AI 嚴格按照要求輸出內(nèi)容。
他遇到的最煩的事情,是 AI 會有 5%-10% 的概率自作主張的解釋自己的所作所為。
比如,很多時候,為了讓 AI 生成的內(nèi)容可以被下一個功能點接收解析,需要 AI 生成 JSON 格式,并且不能輸出其他任何內(nèi)容,否則下游解析不了。
這種情況下,AI 經(jīng)常會像故意的一樣,在按要求輸出的 JSON 格式后面加一句“以上是按照你的要求輸出的 JSON 格式,希望它不會給你的系統(tǒng)造成故障”……
哪怕 AI 老老實實只輸出 JSON 格式不做任何解釋,有時直接以文本格式輸出(期望的),但有時給放在代碼塊里的“失控操作”同樣超級讓人頭疼。
普通用戶用 AI 的容錯率是極高的,大不了不用了。但是產(chǎn)品經(jīng)理用 AI 的容錯率必須是 0:
要么把提示詞打磨到足夠可控,要么提前想到所有可能的情況,使用古典技術(shù)來控制。
要么,就別碰那所謂的“AI驅(qū)動”……
這讓我想到了前幾天一個群友的分享:
在普通人討論“價格戰(zhàn)”的時候,真正的實戰(zhàn)派考慮的是“控制的 ROI”。
看起來很簡單的事情、看起來是免費的東西,反倒可能是最麻煩、最貴的。
最后,如果你也想跟一眾先行者、實戰(zhàn)派交流、探討如何用好 AI,歡迎加入我和人人都是產(chǎn)品經(jīng)理社區(qū)一起發(fā)起的《AI學習行動圈》。
已經(jīng)有 2600+圈友加入,掃碼領(lǐng)券加入,限制49/年。
以及,我周一到周四每天 19:30-21:30 會在視頻號直播為大家演示 AI 在實際工作中的應用。
歡迎掃碼預約:
最后,如果你想體系化的學會使用 AI、搶占這波新技術(shù)浪潮的紅利,可以加入我的《AI 重塑職場競爭力行動營》。
這套課程從去年 7 月打磨迭代至今,已經(jīng)幾乎涵蓋了 AI 在職場中的所有應用場景。
56 節(jié)體系化課程 + 全年 44 場直播課程(每周一場),確保你能用好 AI、學到最新的 AI 應用。
- 目前還沒評論,等你發(fā)揮!