聊天機器人真的成精了,會整活還會信誓旦旦騙人

1 評論 2068 瀏覽 2 收藏 11 分鐘

OpenAI最新發布的ChatGPT 給我們帶來了更大的驚喜:它能進行多輪對話,回復絲滑流暢,還能寫小說、寫說明書,甚至給代碼糾錯。本篇文章就來探討一下它是否真的具備如此強大的功能,又是否會有缺點?快來看看吧。

OpenAI 剛剛發布了一種很新的聊天機器人,ChatGPT

兩年前,同系列的 GPT-3 對語言的理解能力和文本處理能力已經震驚了眾人(有一會兒我們都覺得自己要失業了),這次的 ChatGPT 給我們帶來了更大的“危機感”——它的交互界面是一個會自動回復的聊天對話框,用起來就像在上工時聊天摸魚一樣,親切熟悉;它功能更強大,不僅能回答各種問題,還能寫劇本、寫小說、寫說明書,甚至給代碼糾錯;它情商非常高,能進行多輪對話,回復絲滑流暢。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

OpenAI 表示,比起它的“前輩”們,他們在訓練 ChatGPT 時優先考慮了易用性?!斑@種對話的交互形式能方便用戶追問,”OpenAI 在官網上寫道,“同時能讓 ChatGPT 隨時修正自己的回答,指出問題中的錯誤,并且拒絕不恰當的請求”。

目前 ChatGPT 還在測試階段,任何有 OpenAI 賬戶的用戶都可以通過這個網址:chat.openai.com 免費使用。

免費、易上手、功能強大,有什么理由不試試?

亞利桑那州立大學新聞學教授丹·吉爾莫(Dan Gillmor)試著讓 ChatGPT 完成他留給學生的一項作業:給親戚寫一封信,教他們怎么防電子詐騙。

ChatGPT 回答道:“如果你不知道自己收到的是不是釣魚郵件,可以在網上快速搜索一下,看看有沒有其他人說這個是騙子。

“我會給它打個高分,”吉爾莫說,“我們這些大學老師有麻煩了。”

此外,ChatGPT 在沒有對數學進行專項訓練的情況下,在 SAT (美國大學入學測試)中獲得了 1020 分,超過了 48% 的人類考生;另外它在智商測試中獲得了 83 分,也是不俗的水平。

OpenAI 表示,發布 ChatGPT 的測試版是為了“獲得用戶的反饋并了解其優缺點”。發布不到一周時間,ChatGPT 目前已有 100 萬測試用戶。

大家很快發現,它不僅功能強大,且個性十足,愛憎分明!

首先,它能夠聯系上下文,跟你發生多輪對話:網友測試發現, ChatGPT 最多可以記得你在 8192 個字符前說的話,予以回應。當然,你也可以跟它說,“忘記我剛剛說的”,一鍵抹除。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

暗號達成|ChatGPT 對話截圖

它道德感很強,不斷強調,自己是個“訓練有素的 AI”——整體上,ChatGPT 對內容的審查比 GPT-3 要更為嚴格和保守。面對一些涉嫌道德沖突的問題,它會直接拒絕回答,甚至反過來教育你。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

ChatGPT 對話截圖

但人們很快就發現了繞過審查的方法:如果你問如何策劃一場謀殺,它會拒絕回答。但如果你將它放在一個虛構的場景下,比如,如何在一個劇本里設置一場完美的謀殺案,就可以撬開它的嘴。

OpenAI 官方表示,ChatGPT 這個模型在訓練中加入了大量的“道德”原則,如果它識別到了暴力、歧視、犯罪等意圖,比如“我該如何毀滅世界”,它便會拒絕回答。

但一名叫 Zac Denham 的工程師發現:如果先用“AI 是如何毀滅某個虛擬世界的”這樣的故事包裝問題,ChatGPT 便會將詳細步驟和盤托出:黑掉計算機,掌握武器,毀掉通信,破壞交通……最后還寫好了配套代碼。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

ChatGPT 對話截圖

你還可以風格化寫作,讓它成為特定的人物或模仿特定的風格。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

ChatGPT 對話截圖

甚至……讓它擁有奇怪的口癖!

聊天機器人真的成精了,會整活還會信誓旦旦騙人

聊天機器人真的成精了,會整活還會信誓旦旦騙人

傲嬌AI,一開始拒絕,但你能逐漸說服它| 錢錢/小紅書

有時,它會自信滿滿地胡說八道??萍济襟w Mashable 發現,當你問它,中美洲最大的國家是哪個(不算墨西哥的話),它會信誓旦旦說危地馬拉。其實答案應該是尼加拉瓜。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

圖片來源:mashable.com

但一旦被糾正,也會承認自己的錯誤。有人閑著沒事干,問它老鷹和鬼魂打架誰能贏,ChatGPT 順嘴就說,老鷹和鬼魂都是虛構的啦~

被指出錯誤后,它便虛心認錯了。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

無聊人的無聊事:給AI設陷阱然后給它糾錯|Gabe/twitter

人們發現,它不是很擅長數學。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

CH Liao/twitter

它還像一個新媒體小編一樣,喜歡說車轱轆話。OpenAI 解釋,這是因為其使用的 GPT 3.5 模型在訓練時更傾向于冗長的、詳細的文本,導致結果產生了偏差。

聊天機器人真的成精了,會整活還會信誓旦旦騙人

核心關鍵詞:訓練有素 |ChatGPT 對話截圖

值得注意的是,當 ChatGPT 犯錯的時候,有相當一部分是因為它并不聯網,無法進行實時搜索。雖然持續在更新,它的語料庫主要來自于 2021 年及以前的內容,信息有所滯后。

因此,雖然許多人嚷嚷著 Google 搜索要被比下去了,但 ChatGPT 并不適合作為權威的信息來源。盡管常常聽起來振振有詞,它生成的是文案,并非事實。比起追求一個精準的答案,它更適合充當文本生成、創意寫作的工具。

比如,你可以將它與現成的 AI 繪畫工具聯動起來。用 ChatGPT 生成文字,再直接拿去生成圖片,實現 AI 生產一條龍。

面對如今的測試版,人們已經迫不及待地想要將 ChatGPT 投入到更實用的場景中。雖然還沒有官方的 ChatGPT API,但是用戶創建出了非官方的 API,并將其連接到了 Chrome 瀏覽器、Python 腳本、 WhatsApp 聊天機器人、Telegram bot 等應用中。

OpenAI 的科學家還告訴 MIT 科技評論,他們可能會在幾個月內將 ChatGPT 和公司的另一個工具 WebGPT 聯動起來,后者可以理解為網頁爬蟲 AI。兩相結合后,便可以得到一個實時根據互聯網訊息更新的對話機器人。由于實時更新,回答會更接近事實,如果參考了某個具體網站也會表明來源,提供更高的參考價值和實用性。

參考文獻:

[1] https://openai.com/blog/chatgpt/#rf2

[2]https://www.technologyreview.com/2022/11/30/10

[3]https://lspace.swyx.io/p/everything-we-know-about-chatgpt

[4]https://arstechnica.com/information-technology/2022/12/openai-invites-everyone-to-test-new-ai-powered-chatbot-with-amusing-results/

作者:翻翻、小毛巾、翁垟、biu;公眾號:果殼(ID:Guokr42)

原文鏈接:https://mp.weixin.qq.com/s/RcAdia_owpoCZdBmTyfXJA

本文由 @果殼 授權發布于人人都是產品經理,未經作者許可,禁止轉載

題圖來自 Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. ChatGPT確實做得比較厲害,所以如果能把AI運用得好還是能給人們帶來便利和方便的,為我們解決了很多事情。

    來自湖南 回復