Grammarly新CEO斯坦福分享:關于AI,喜歡上問題而不是解決方案,方案隨著時間推移而改變!

0 評論 3895 瀏覽 2 收藏 41 分鐘

本篇文章分享了Grammarly新CEO在斯坦福對AI的見解。包括這一波新的 AI 浪潮,同時還分享了Grammaly 在應對審核和偏見時的方法和策略,為年輕的創業者和技術從業者提供了經驗見解。我們一起來讀讀看吧!

2 年前,Rahul Roy-Chowdhury 離開工作了 14 年的谷歌 VP 崗位加入 Grammarly 擔任全球產品主管,他曾領導谷歌隱私、安全和安全團隊,為谷歌的產品組合提供統一的解決方案,此外還領導過 Chrome 瀏覽器和 Chrome OS 的產品管理團隊。

今年上半年,Rahul 升任了 Grammarly 的 CEO,加速 Grammarly 對生成式 AI 技術的應用,不僅幫助用戶寫作,還能幫助用戶提出好的想法,提高 Grammarly 的 LTV。

市場上曾擔心像 Grammarly 的產品會因為 ChatGPT 的出現而失去競爭力,但 Rahul 不以為然,Grammarly 擁抱了 GPT,他認為 AI 雖然存在風險,但這是一項強大的技術,Grammarly 也有責任通過安全負責的方式讓用戶處于體驗到中心,而不增加額外的偏見和風險,他呼吁開發者們要確保生成式 AI 在幫助用戶的同時,不會剝奪用戶的控制權和個性。

在 Rahul 升任不久,在斯坦福大學展開過一次分享, Rahul 圍繞 AI 展開討論,涵蓋所有內容包括這一波新的 AI 浪潮,此外 Rahul 還分享了Grammaly 在應對內容審核和偏見問題時的方法和策略,也為年輕的創業者和技術從業者提供了寶貴的經驗和見解。

以下為這次分享的全部內容,enjoy~

一、在 Grammarly 使用和構建 AI 幫助用戶

今天與大家分享的是關于我們在 Grammarly 使用和構建 AI 來幫助用戶的內容,你們中的許多人都是用戶,我們已經開發出了工具、技術和對于如何大規模構建 AI 系統的理解,我希望分享這些經驗,以便你們可以從中受益,其中一些可以廣泛應用,不僅局限于 Grammarly 。

實際上,我希望這成為一次對話,我希望我的演講不是結束,而是對話的開始,一場關于如何通過 AI 來幫助我們,而不是傷害我們的對話,如何通過 AI 來增強我們的能力和潛力,而不是削弱它,如何通過 AI 來增強我們的技能,幫助我們以新的、更好的方式進行溝通,而不是剝奪我們的發聲權,這是我今天愿意與你們分享的對話。

讓我們先做一次場景評估,我們現在處于什么狀態?現實是 AI 是正在塑造我們世界最強大的技術力量,至少在我看來,毫無疑問,它已經不僅僅是未來,已經在幾乎所有大規模運營的行業中產生了巨大影響。

  • 想想制造業, AI 被用于創造更好的組件, AI 被用于優化全球供應鏈;
  • 想想醫療保健, AI 被用于幫助放射科醫生更早、更快、更準確地檢測癌癥;
  • 想想醫學, AI 被用于在藥物發現過程中幫助分析數十億種化合物,以確定最有前途的研究領域;
  • 想想軟件, AI 正在推動新的個性化工具,幫助我們在職業和個人生活中更加高效;

我們才剛剛開始,在我們的一生中 AI 將幫助我們解決最重要的問題,例如全球變暖。隨著生成式 AI 的崛起,我相信大家都在關注, AI 還將幫助我們在創意表達方面,將高層次的想法轉化為具體的作品,成為藝術品、文學作品等。這是令人興奮的。

我本質上是一個技術樂觀主義者,我在技術領域工作了很長時間,我相信技術將幫助我們改善生活,改善世界。在我職業生涯中,我一次又一次地看到了這一點,我記得我們早期談論 Chrome 時的情況,我記得當我在 Chrome 項目上工作時,看到了網絡訪問和低價智能手機將信息傳遞給全球數十億人的影響,我看到了這種影響,那是技術在規模上幫助人們的例子。

因此, AI 是美妙的,但是也伴隨著巨大的力量和責任, AI 也可能引起實際問題造成傷害。不管是出于設計還是僅僅作為意外的副產品,不是有意為之,而是由于技術的強大而無意間發生的后果。你可以考慮基于 AI 的推薦引擎,它們已經造成了實際的傷害,并引發了社會問題,比如激進化、成癮,或者是因為沉浸于這種技術中而忽視了現實世界的人際關系。

我的意思是,我們的大腦無法抵擋這些系統精心設計的多巴胺沖擊,作為一名父親,我擔心這一點,我希望我的孩子能夠接觸到 AI 所提供的一切好處,但我也希望保護他們免受這些傷害,如果你考慮到 AI 在我們生活中作出重大決策的情況,比如篩選工作申請或決定誰獲得貸款批準,那么這些系統中存在著潛在的數據偏見,這些偏見會造成實際的傷害。事實上,人們正在取得進步,系統正在變得更好,事情正在改善。所以并不是一片黯淡和末日的故事,但是傷害是真實存在的。

我不知道你們是否看過 John Oliver 的《Last Week Tonight with John Oliver》脫口秀,這個節目真的很搞笑。幾個月前,他的節目是關于 AI 的,非常值得一看,尤其是在考慮到你們正在上的課程和主題的情況下。但其中他強調的一點是, AI 被用于篩選工作申請,他們提到了許多問題和偏見,以及該系統所面臨的許多挑戰。

但是從節目中最讓我印象深刻的一點是,這些公司的領導之一,提供這些服務的公司,他對求職者的建議是不要與眾不同。你的任務不是獨特、特殊或與眾不同,你的任務是通過 AI 進入真正的人類世界。

這太可怕了,太沒有賦權感了,太反烏托邦了,這不是我想要的未來,我不想要這樣的未來,我相信你們也不會想要這樣的未來,因此傷害是真實存在的,所以問題是我們應該怎么辦?我們不應該停止。我認為我們應該選擇一個有意識的道路向前。

我想向大家傳達的一件事——我們可以決定如何發展和部署這項技術。不要讓技術來對待我們,而是讓我們決定這項技術如何部署,以及它如何影響我們的日常生活。我們有權力,不要放棄這個權力,這對于你們來說,現在進入就業市場,開始職業生涯是一個非常重要的事情,只要記住我們有權力和控制權,決定這項技術如何塑造,以及它在我們生活中的形態。

這就是今天對話的核心,所以在 Grammarly ,我們正在努力構建框架、技術和工具,試圖將 AI 應用于大規模人群。

二、“ TRUE ”框架

Grammarly新CEO斯坦福分享:關于AI,我職業生涯學到的一件事是喜歡上問題,而不是解決方案,因為方案隨著時間推移而改變!

我們有一個基本的信念 —— AI 是關于增強人類潛力的,我們稱之為增強智能:AI 在增強我們的同時是成功的,當它使我們變得更好、增強了我們的能力時,這應該是這些系統的目標。

實際上,我真的希望我們可以重新定義 AI 的縮寫,讓其代表增強智能,而不是 AI ,因為我認為這實際上才是我們從這些系統中期望的結果。你希望它們能夠幫助我們 。AI 會引發這些關于它是否有意識、是否有感知能力的討論,而這實際上超出了這些系統的實用性,它們的目標是幫助我們。

我們希望構建系統,將系統部署給用戶,使其始終保持這種增強智能,我們使用了一個稱為“ TRUE ”框架:T代表信任,即承諾實施世界一流的隱私和安全性,R代表責任,即關注公平和用戶安全,U代表用戶控制,真正讓用戶掌控,并確保用戶在整個體驗過程中有能力,E代表同理心,確保我們真正理解我們的用戶需要,解決真正的用戶問題,所以這就是 TRUE 框架。

Grammarly新CEO斯坦福分享:關于AI,我職業生涯學到的一件事是喜歡上問題,而不是解決方案,因為方案隨著時間推移而改變!

我們給你們提供一個案例研究,介紹 TRUE 框架如何得到應用,基于在大規模構建系統方面的實際建議。因此,讓我退后一步,向你們解釋一下 Grammarly 的業務,因為這將幫助你們理解案例研究,所以 Grammarly 的業務是幫助人們更好地溝通。

1. T——信任

我們都有不同的風格,有不同的背景,我們使用許多不同的工具進行溝通,而且有人被完全理解并以他們的預期方式傳達,使用了正確的語調、正確的信息,這樣的機會并不高。事實上,我們正在使用的溝通工具數量不斷增加,因為工具的景觀變得分散,且我們的工作方式在過去幾年中發生了巨大的變化,有更多的遠程工作、分布式團隊、全球團隊試圖在不同的背景下協同工作,所以溝通始終是一個難題。

Grammarly新CEO斯坦福分享:關于AI,我職業生涯學到的一件事是喜歡上問題,而不是解決方案,因為方案隨著時間推移而改變!

現在比以前更難了,溝通不太好的代價非常高。事實上,我們進行了一項研究,發現僅在美國,單單一個年度內,低效的溝通成本就達到了 1.2 萬億美元,這個數字只是一年前的數據,這個數字不會下降,而是上升,因為溝通的數量在增加,而溝通的效果在下降,這是一個很難解決的問題。

當我們真正解決了它時,情況會變得很棒,我們能夠準確地表達自己的意思,彼此理解,感覺在公司里可以更好地協作和完成任務,公司也會報告這一點,他們看到了更好的結果 —— 團隊處于流動狀態,工作更快,取得更好的成果,所以這是一個溝通問題,這是一個我們正在 Grammarly 中解決的問題。

Grammarly新CEO斯坦福分享:關于AI,我職業生涯學到的一件事是喜歡上問題,而不是解決方案,因為方案隨著時間推移而改變!

2. R——責任、U——用戶控制

現在,每個人都知道生成式 AI 很重要,每個人都在研究生成式 AI ,我們在 Grammarly 一直在研究,大約 4 月份我們推出了生成式 AI 版本,一個名為“ GrammarlyGo ”的產品,為了將 GrammarlyGo 帶給我們的用戶,我們在全球有數百萬用戶。

Grammarly新CEO斯坦福分享:關于AI,我職業生涯學到的一件事是喜歡上問題,而不是解決方案,因為方案隨著時間推移而改變!

我們使用了 TRUE 框架,那么讓我詳細地為你們解釋一下,在我們考慮我們剛剛推出的產品時,我們如何思考這個框架,如何將其應用于我們的用戶呢?讓我們從信任開始,信任是確保你理解用戶對其數據的期望,這些問題是你正在收集什么數據?你對數據做了什么?你將其保留多長時間?實際上,在所有這些問題的根本上有一個基本的問題,那就是你的動機和我的動機是一致的還是不一致的?

在 Grammarly ,我們構建了一個圍繞確保我們的動機和用戶的動機始終 100% 一致的業務和公司,這是一個非常簡單的決策過程,一個新的商業模式出現在我們面前,我們思考一下,有收入的潛力,這很有趣,但是它是否會導致我們在處理用戶數據的方式方面與用戶的興趣不一致?答案是肯定的,我們不會做。

用戶的一致性是至關重要的,這實際上是隱私的根本,是獲取理解一致性的關鍵,如果隱私是關于一致性以及你將如何處理用戶數據,那么安全性就是確保該數據免受損害、免受濫用;在 Grammarly ,多年來我們在安全方面投入了很多,我們擁有整個字母表的認證,包括 sock、HIPPA、CCPA,應有盡有,而且這些事情不會很快發生,他們需要很長時間,需要很多投資來完成,而且在事后難以添加。

現在,隨著像 LLMs 這樣的新技術的出現,出現了新的威脅,對于 LLMs 這樣的威脅模型的全面了解尚未達到,所以應對這種不確定性的最佳方式是真正擁有多層次的安全性策略。

不僅僅依靠一件事情的良好運作,而是依靠多種事物一起工作,采取組合方法,比如漏洞賞金計劃或者像紅隊一樣,紅隊的概念是你有一個團隊,我們在 Grammarly 就有這樣一個團隊,他們的工作是主動找出你系統中的漏洞,這樣我們就能夠在外部黑客之前找到并修復它們,所以真正投資于這種安全方法的組合是處理新技術的正確方式。

我想要給你們帶來的關于信任這個理念的一個主要觀點是,要贏得它非常困難,失去它非常容易,事后很難添加,所以當你們開始自己的職業,思考所有你們將要構建的酷應用、企業和技術時,要牢記信任,因為信任需要成為你們做其他一切的基礎,我們需要贏得和加強信任,使其成為基礎,在沒有這種基礎的情況下,要想使一家成功的公司擴展是非常困難的基礎。

放在那里,這就是信任,所以,在 GrammarlyGo 中,我們應用了這個框架,這些技術,所有的投資,它們幫助我們推出GrammarlyGo ,保持了我們與用戶之間的信任關系。責任是確保我們專注于公平,專注于用戶安全。這里需要做很多技術性工作,例如評估并確保你的ML模型具有非常高質量的訓練數據,確保數據沒有偏見,確保你可以跟蹤和查找敏感文本,比如仇恨言論。

例如,在 Grammarly 中,我們投資了敏感文本分類器。因此,你可以將 LLMs 生成的文本想象成,當我對文本進行分類時,我會捕捉到它并說,嘿,這是敏感文本,然后我們可以采取適當的行動。

例如,我們可以說,如果用戶看到這段文本,對他們來說體驗不會很好,我們不會向他們展示這段文本。因此,我們實際上可以保護我們的用戶免受這些模型可能造成的潛在傷害。所以我們在這些技術上投資,我強烈鼓勵每個人在考慮大規模構建 AI 時,要深入思考如何做好這些事情。

質量評估,敏感文本分類器來檢測這些問題。這些是需要正確解決的重要問題。但這不僅僅是關于技術,因為無論你做什么,無論你構建什么,無論你的分類器有多好,當你的真實用戶在現實生活中使用你的產品時,總會遇到一些意想不到的問題。那么你打算怎么做呢?這是你必須提前考慮并在事后不是反應的問題。

因此,在 Grammarly 我們處理這個問題的方式是,我們為用戶在產品中發送反饋提供了許多不同的途徑,例如電子郵件、客戶服務團隊。這不僅僅是給我們反饋,我們有一個流程,當我們收到反饋時,我們可以采取行動。

有人正在查看并說這是一個問題。我們必須解決這個問題,誰來解決?誰值班?讓我們解決它,讓我們發布修復,讓我們保護用戶安全。因此,責任的一個關鍵部分不僅僅是正在發生的技術創新,這是重要且偉大的,而且還要確保在你的真實用戶在他們的實際生活中使用你的產品時,你有一些計劃來應對不可避免的意外事情,那么你的答案是什么?有答案是很重要的,它可能不會完全與 Grammrly 相同。

我們需要一些答案。所以這就是責任、用戶和控制:用戶應該感覺他們對整個體驗有控制權,所以他們不會覺得技術是施加給他們的,他們覺得他們控制著體驗,他們正在推動過程,他們正在推動結果。

因此,對于 GrammarlyGo ,我們代表用戶生成文本。首先,我們希望確保用戶感覺 GrammarlyGo 生成的文本聽起來像他們,代表他們的聲音,因此,我們構建了一個名為“My Voice”的功能,用戶可以控制他們的聲音,這不僅僅是模板化的通用文本,它反映了你想要的聲音,然后,整個體驗允許用戶看到發生了什么,我們提供提示,但最終我們總是讓用戶做決策,這不是偶然的。

這不僅僅是發生的事情,這是一個有意的設計選擇。因此,在設計和構建這些功能和產品時,你會面臨這些選擇,我要把用戶引導進來嗎?還是不引導?

根據我的建議和我艱難的經驗,將用戶引入其中,確保他們感覺他們對體驗有控制權,這是 TRUE 框架的一個部分。

3. E——同理心

最后一個部分是共情,這是一個理念。我們正在努力解決真正的用戶問題,這聽起來是一個顯而易見的事情,那就是你會做的事情,但實際上,在我職業生涯中反復看到的是很容易忽視這一點,因為有太多的干擾。

你忙于為你的產品和功能工作,最初是帶著最好的意圖開始的,這是用戶的問題,我要解決它,然后會發生一些事情,比如這邊的競爭對手做了另一件事情,我必須做出回應,或者這里有一所學校,有了新技術,我必須讓它上市,讓我們看看會發生什么,所以很容易受到干擾。

你看了很多不同的事情,這些時間沒有花在用戶身上,當發生這種情況時,通常你的產品會偏離軌道。實際上不能幫助解決真正的用戶需求。因此,你必須有意地迫使自己返回來,并問自己一個問題,那就是用戶的需求是什么?我們正在為他們解決什么問題?我如何確信我的解決方案實際上是解決了他們真正遇到的問題?

而不僅僅是因為它很酷,以及你想出了這個點子,要把它推出去,看看會發生什么。所以在構建和部署這些系統時,將共情不斷帶回到對話中是非常重要的,這就是 TRUE 框架,現在我們在 Grammarly 使用它,但這與 Grammarly 沒有特定的相關性。

我的希望是你們所有人都可以看到這個框架的價值,并在你們的工作中應用它,在將來的工作中應用它,在構建應用程序時考慮使用這個框架,想象一下如果真正的框架成為事實上的做事方式,會發生什么,想象一下在哪里?

所有應用程序、所有行業、每個人都在使用這個真實的框架,那么那個世界會是什么樣子?讓我們試著通過這個可視化的練習來走一遍,這是一個人們能夠感到有能力做得更好、取得更好結果的世界,那是我們在大規模部署 AI 來幫助人們取得更好結果的世界,那是我想要的世界。

我們在開始時談到 AI 承諾的世界,如果你不經過深思熟慮和刻意考慮,就會帶來所有問題.。

所以請記住我們有權力決定如何部署和構建這項技術,你們都是科技領域的領袖,或者未來的科技領袖。

我的愿望和希望是,你們所有人都要深入思考如何使用這種權力;我的請求是請承諾使用這種權力來構建能夠增強人類潛力的 AI ,讓人類能夠做得更好,提高我們的潛力、能力,賦予我們超能力。

三、Q&A

以下部分是Rahul 有啟發的 Q&A 分享:

并非每個人都像 Grammarly 一樣具有共情能力,是否認為僅僅有了這些框架就足夠了?對政府監管的立場是什么?是否認為政府監管有必要?

我認為我對政府監管的看法是,這是一個重要的討論,就像我在一開始說的那樣,這是一個重要的討論,我認為對于這種強大的技術來說,政府的監管是必要的,也是受歡迎的,但我想說的是,作為未來科技領域的領袖,應該采取一種積極的責任態度,如果在有監管并且有明確的指導的情況下,已經在做所有正確的事情,已經深入思考了如何在負責任的情況下大規模部署這些系統,而不僅僅是因為有監管才去做。

正確的做法在市場上也會勝出嗎?如果市場上有一個無情的競爭對手,他們會在生成式 AI 領域戰勝一個有道德的對手嗎?

我相信會,因為我總是看到技術,產生困境,但技術總是找到一種擺脫困境的方式,技術總是創造出良好的結果,最終成為一種善的力量。我相信這對于 AI 也是如此,但這不是一條定律。但我想要確保大家理解的是,這不是先驗的事情,這不是自然法則,這是我們的行為和行動帶來了這些結果,所以關于好人是否會贏還是不會贏的問題,不是說有一種物理定律會實現那個結果,是我們的集體行動會使之成真與否,這就是為什么我實際上很高興與大家進行這次對話,因為我只是想確保你們都理解你們有權力來塑造這個結果。

我再問一個問題,然后我們會開放提問,但是它是否具有惡性影響?因為我們在幾周前邀請了Open AI 的首席科學官 Ilya 參加活動,如果你與Open AI 的人討論他們將來的戰略決策,這主要是由Sam,Ilya 通常會回答說,我們將問 AI 應該做什么,現在 AI 已經在流程中得到了如此緊密的整合,以至于我作為人類的終點在哪里?AI 的起點在哪里?界限可能會變得非常模糊,即使是你提到的反饋對你的利益和激勵產生了影響,甚至可以影響你的激勵和對齊的感知,如果生成式 AI 在產品開發過程中如此深入地整合進去,我們是否能夠與之保持分離?

我認為我們絕對應該,這關乎用戶控制,這是一個很好的例子,讓我們使用 AI 來幫助我們,也許 AI 可以幫助我們創造出很棒的創意,并找出下一步要做什么?我的公司策略是什么樣的?如果 AI 幫助我找出 Grammaly 的公司戰略,那將是很好的,但最終我們必須掌控局面,我們不應該放棄這種系統控制。

目前很多行業似乎有些驚慌,新聞業、音樂業等等,所以我們如何平衡 AI 助手的能力,使之不成為實際的內容創作者?如何將權力交還給不同的行業?

我認為有很多不確定性和很多恐慌,我認為這是事實,每一項重大科技創新,如果你回溯到70年代,美國第一次大規模部署 ATM (自動取款機),銀行出納員開始恐慌,因為他們擔心 ATM ,認為我們的工作要完了。

實際上,ATM 機的出現讓人們感到恐懼,事實上,由于 ATM 的廣泛使用,開設銀行分行變得更便宜,因為不需要那么多人來員工,因此銀行出納員可以繼續從事更有意義、更復雜、更高層次的任務;在美國, ATM 投入使用之前的銀行出納員人數少于使用 ATM 之后的人數,科技總是找到幫助我們的方法,但我們需要確保這一點成為事實。假設你是 Google 的產品經理,你構建的東西對全球數十億人產生了真正的影響,所以請將這些原則牢記心中,考慮一下,你正在構建一個非常重要的東西,不要把它僅僅作為一個產品扔掉。

我想表達的是有意識地進行設計,把用戶放在首位,確保你解決了用戶的問題,對用戶任務懷有同理心,確保用戶控制是核心,所以我們可以通過我們集體采取的行動來塑造這個未來,每個人的單個行動都會在成百上千的工程師和產品經理致力于構建的非??岬臇|西中,合并在一起,這才是未來。

關于 Grammarly 如何訓練這個模型的?

我們在Grammaly Go推出時,這是一個非??焖侔l展的領域,我們使用了在Azure上運行的GPT 3.5 Turbo,我們所做的是應用了我們所使用的所有其他部署,比如敏感文本分類器作為后處理步驟。

你可以查看生成的輸出并說這不好要更改,像我的聲音這樣的功能,將其視為對底層模型的提示工程,然后在未來,這些基礎模型的領域正在迅速變化,將來可能會有一些其他更好的模型,也許是更好的開源模型,也許是在設備上進行本地模型學習的更好的模型;我們在質量評估方面投入了很多精力,如果出現新模型,我們已經準備好了一個專家團隊,可以評估模型的質量、偏見、公平性和安全性。因此,在這些模型發展演變時,我們準備進行相應的更改。

關于LLM的問題的后續問題,特別是信任和安全等方面。

眾所周知,有關LLM的輸入數據以及數據的廣泛性和透明性存在很多討論,我認為你真正在問的是這實際上是系統設計的產物,而不是模型的訓練方式。作為用戶,很難理解哪些訓練數據用于生成特定的輸出。正如你所說,領域非常廣泛。因此,一個例子是,在 GrammarlyGo 中,你可以創建你自己的聲音,你可以說,這是我想要的聲音。這是我的聲音。因此,產品體驗使你可以控制輸入和輸出。因此,我認為解決這個用戶困境的方法是,如何解釋給用戶這么多復雜性是非常有深思熟慮的設計,用戶,這回到了用戶控制,這是非常重要的,用戶應該感覺自己理解并有能力影響塑造體驗。

AI 在改善溝通方面能做什么?它現在還做不到什么?你認為它會如何發展?

GrammarlyGo 有一個叫做“快速回復”的功能。所以我每天都會收到很多郵件。也許有人給我發了一封郵件,說,“嗨,我想見面討論一些話題?!币虼?,gramalie go會理解郵件的內容,理解郵件的意圖,并為我提供一些選擇,以回應該郵件。有時候是接受,有時候是建議,有時候是禮貌地拒絕。

然后它會為我生成一封電子郵件,這是一封表面上的電子郵件,但它會在我的聲音中進行,而且充滿了完整的上下文。它會生成一封電子郵件,我實際上感到很高興和自豪地發送,而不是像機器人一樣的通用文本。我經常使用這個功能,它對我來說是一個巨大的生產力技巧,幫助我在我的日常工作中。有很多事情現在還不能做到。但老實說,這個領域變化得太快了。

推理技能的模型似乎都是這些模型變得越來越大時的 emergent properties(新興特性),這似乎有點神秘,盡管我不是這個領域的研究人員,但從每一代模型中新出現的特性是什么,似乎仍然有點神秘,我不認為有人真正理解了這一點,所以我們也在學習的,過去的六個月是瘋狂的。

大多數人在六個月前根本不知道什么是 LLM,突然之間,它在六個月內就占領了整個世界,真是太瘋狂了,在接下來的六個月、十二個月、二十四個月內,這將如何發展,我不太確定。我想我們只能拭目以待。

如果我是斯坦福的學生,對生成式 AI 充滿激情,并且擁有充足的時間,我想我會這樣說專注于用戶問題。不能只是說,我要做生成式 AI ,這是我對此的看法。其他人可能會持有不同意見。我要解決一個用戶問題,我可以使用生成式 AI 來很好地解決它,在我的職業生涯中學到的一件事是,最好是喜歡上問題,但不要喜歡上解決方案,因為解決方案會隨著時間的推移而改變。通常情況下,我們最終會喜歡上解決方案而不是問題。你甚至意識不到這正在發生。然后當有更好的解決方案出現時,你會說,不,但我的東西,那太棒了。

實際上,最好不要過于依賴任何一個解決方案,所以我會說,我能給你的最好建議是找到那些問題,找到值得解決的問題,從那里開始,生成式 AI 將是解決這些問題的好方法。

Grammarly 實際上是一個產品體驗,但它適用于你使用的所有其他應用程序,它不是一個定制的體驗,你可以認為它是一種疊加在你使用的每個其他產品上的產品,從全面的角度來看,我們將從今天開始擁有多個產品,我們有一個擴展,我們有移動產品,我們正在尋找原生應用,而且在某個時候,我們將從一套產品轉變為一個平臺,但現在我們非常專注于進入我們服務的入口,這項服務在人們寫作的地方都可以使用。

關于那個什么我和 AI 聊天的迷因,我討厭那個迷因,讓我們確保那個迷因不成為現實,讓我給你一些真實的數據點,我談過那個1.2萬億美元的損失的事情。事實是,美國的平均知識工作者在全球來看花費了超過一半的工作周在書面溝通,過去的12個月中這個數字增長了18%,所以這在增加,然而在同一個12個月的時間內,書面溝通的效果下降了12%,所以數量在增加,質量在下降,因此,我們無法擺脫這個問題,我們不能通過說做更多,來解決這個問題,如果我能在跑步機上跑得更快一點。

事實上,你做得越多,情況就越糟,所以真正的答案必須是,必須更好地溝通,不是更多,而是更好,因為數據就是這樣,我并不是憑空捏造的,這就是數據所說的,你必須弄清楚如何更好地溝通。

如果你想想,如果考慮一下生成式 AI ,我們已經在如此多地進行溝通,對吧?我們已經降低了溝通的質量,然后你想想溝通成本或內容成本的下降,現在只要使用生成式 AI ,就可以輕松地創建大量的博客文章等等,用生成式 AI 你可以做到這一點,這項技術使你能夠實現這一點,但是那會有什么幫助呢?

你只會將這 18% 增加到 50%、60%,你會將這 12% 降到負 50%,那不會有任何幫助,這就是為什么你真的要回到用戶問題,而當你考慮如何使用生成式 AI 創業,如何使用它時,這就是你的座右銘,這會引導你找到正確的解決方案。

在 Grammarly 內部,是如何決定或優先考慮你的路線圖的呢?這是有一些技術、一些技巧可以使用,但歸根結底,這是一門藝術,而不是科學,因此有些事情你可以弄清楚,比如你正在解決什么用戶問題?為什么這些是最重要的用戶問題?我們有什么數據來支持它?我們與用戶交談,我們進行訪談。

因此,有很多輸入,以幫助我們了解問題領域,然后有一些事情,比如,隱私問題如何?我們是否保持一致?我們是否不保持一致?所以你可以在那里非常清楚地開始使用過濾器。然后你可以進行一些影響評估,比如這件事情做起來很好,但影響可能是邊緣的,另一件事情做起來需要同樣的時間,但實際上對我們的用戶產生了巨大的影響,所以讓我們專注于最大化影響,有一系列的這些東西,你可以放在那里作為指導方針和安全措施以及過濾器,但歸根結底,還是需要判斷和團隊花費了很多時間在 Grammarly 、 Google 以及每一家公司真的在辯論、討論和爭論路線圖和優先事項,你知道,也許在某個時候, AI 會告訴我們該做什么,但現在我們真的必須在這方面進行很多辯論、討論。

關于在過濾潛在引發情感的言論; 審查以及這些 AI 限制訪問某些想法之間的界限是什么?

我們每天都在自問的問題,我不知道是否有任何完美的界線刻在石頭上或涂在油漆上,或者無論用什么比喻,我們有一支語言學家團隊,他們正在追蹤和研究權威來源,了解不同種類的偏見、仇恨言論是什么,然后我們試圖從這些來源中匯編出一系列規則,關于這個問題的思考是什么?有什么研究、什么學術成果?你如何在產品中有意義地應用這些?這是在不斷變化的?

所以并不是像你做完了就說,好的,打鉤,我完成了,這是一個持續的評估過程,當疫情變得流行起來時,其中一個新情況就是以許多偏見的方式來稱呼疫情,這就成為一個問題;因此, Grammarly 的敏感文本分類器能夠捕捉到這些情況,并能夠向用戶提供建議,歸根結底,我們不能替你寫作,但我們會建議你,這是一個不斷變化和適應的事情,我們正在努力盡可能與現狀保持一致。

作者:有新;來源公眾號:有新Newin

本文由 @有新Newin 原創發布于人人都是產品經理,未經許可,禁止轉載

題圖來自 Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!