刻意練習的3種模式,很多“天才”不過是找對了方法

3 評論 26140 瀏覽 37 收藏 14 分鐘

我們總在說,光靠努力是不夠的,方法很重要,那么,什么樣的是正確的方法呢?

如果真的希望獲得比別人更強的能力,要超級勤奮,Work Super Hard。

方法論重不重要?非常重要,但當你的方法論精進到極致之后,你還是得回到最最根本的勤奮,甚至是可怕的勤奮!

那做到可怕的勤奮就夠了嗎?依然是不夠的。

可能我們只是在原地打轉,一直在努力做些事倍功半的事。

所以,我們還得再加上兩個字——“高效”,高效而可怕的勤奮。

01

前兩天,教育部一則新增 35 所高?!叭斯ぶ悄堋北究茖I的消息,引發了社會的廣泛關注。

這意味著人工智能將以更快的速度和更猛烈的勢頭,融入我們生活的方方面面。

大多數人對于人工智能的認識,應該是從 AlphaGo ——那個讓棋手們咬牙切齒的機器人開始的。

刻意練習的3種模式,很多“天才”不過是找對了方法

AlphaGo 把“高效而可怕的勤奮”體現得淋漓盡致,大數據和人工智能技術,讓它建立了每一步都有反饋的學習機制。

如果你了解到更多 AlphaGo 的“成長歷程”,可能你也會跟我一樣,從嘆為觀止,到不寒而栗。

02

2016年4月,AlphaGo 戰勝李世石;2017年5月,AlphaGo戰勝柯潔。

刻意練習的3種模式,很多“天才”不過是找對了方法

▲柯潔說:它下出了令我絕望的一步棋,我知道那盤棋我不可能贏

出現在柯潔面前的 AlphaGo早已今非昔比,這一年里,它從 1.0版進化到了2.0版。

差別在哪里?

1.0 版戰勝李世石的AlphaGo,先學 10 萬局棋譜,把全人類的經典棋譜盡收眼底。然后,分析棋局定式和得失,最后生成了自己的策略算法。

但是后來,開發AlphaGo的公司DeepMind 覺得這還不是最強形態。

就算是把人類的10萬局棋譜學過來,只不過相當于古今中外所有圍棋高手合戰一人罷了。

可以下贏一個李世石,但也注定比李世石高不到哪兒去。

如果對手無比強大,可能一擁而上再多人也不是對手。

于是,有了后來的 AlphaGo 2.0。

AlphaGo 2.0 與之前最大的不同是:沒有棋譜喂養。

工程師們只告訴 AlphaGo 最基本的圍棋規則。大概就是黑先白后、交替落子,怎么算輸、怎么算贏……然后,找兩個這樣的 AlphaGo 圍棋寶寶,開始對弈。

從0開始學,從0開始下,下了多少盤?

第一天嘛,先下100萬盤,試試水。

就這樣,每天100萬盤……

刻意練習的3種模式,很多“天才”不過是找對了方法

2.0版本的AlphaGo,不再跟人類學怎么下圍棋,而是跟自己學。

這時的 AlphaGo肯定不知道什么是相思斷、無憂角……

但它們知道誰輸誰贏,甚至還能復盤棋局,為每一步打分,推測哪一步對、哪一步錯、哪一步可以更好。

基于規則和輸贏,AlphaGo建立了反饋體系,根據每天的 100萬盤,AlphaGo開始不斷優化算法。

就這樣,每天下、不斷學……

直到柯潔出現,這時,AlphaGo 跟柯潔早已不是同一量級。

或者說,它已經超越了整個人類的圍棋水平。

聶衛平講過一句話:

AlphaGo 最可怕的地方在于——它終于讓我們知道,人類其實根本就不懂圍棋。

過去,人類對圍棋的理解,從一開始,可能就被我們有限的知識框定了。

基于反饋機制的學習,才是真正的高效而可怕的學習。

03

我們再來看幾個AlphaGo 的學習片段,看看什么是高效而可怕的學習能力。

AlphaGo 誕生之后,為了檢驗它的學習能力,DeepMind 做過一個測試。

讓它挑戰簡單的電子游戲——打方塊。

刻意練習的3種模式,很多“天才”不過是找對了方法

很多人小時候玩過這游戲,屏幕下方有一個小球拍,球掉下來時,你要控制球拍把球擋回去。

屏幕上方有很多磚塊,用小球把磚塊一個個打掉,全打完就算贏了。

這游戲的規則和輸贏標準特別清楚,先跟 AlphaGo明確了底層反饋體系。

與下圍棋一樣,一旦建立了規則和反饋體系,根本不用教它“應該”怎么玩,反正你就去玩吧!

接下來,我們觀察他的學習方式。

這是它玩了100局的結果——

刻意練習的3種模式,很多“天才”不過是找對了方法

這個階段,球拍在AlphaGo的控制下,顯得特別的木訥,都不知道該往哪動,很多球接不起來。

然后,它自我學習了200局之后——

刻意練習的3種模式,很多“天才”不過是找對了方法

你是不是明顯感覺到它的身法靈活多了?它逐步開始對球的落點有了判斷。

繼續進步,這是400局練習之后——

刻意練習的3種模式,很多“天才”不過是找對了方法

每個球都能接起來,非常棒!

好,時間來到了第600局,可怕的事情發生了——

刻意練習的3種模式,很多“天才”不過是找對了方法

你看出什么沒?

從來沒有人教過他這種打法,可能就連你以前也沒這么玩過。

但是,玩著玩著,因為有一套底層反饋機制,AlphaGo最后自己建立了一套策略。

這個策略是,它發現打開一個缺口之后,把球彈上去,球在中間不斷的彈彈彈……效率是最高的、移動次數是最少的。

第一次看到這個視頻的時候,我覺得特別“可怕”,不寒而栗。

AlphaGo 擁有了我們過去認為只有人類才會擁有一種東西,叫做智慧。

之所以人工智能在今天如此強大,是因為它擁有的深度學習能力——基于策略的不斷反饋、持續優化。

更可怕的是,它不光比我們會學習,還比我們更勤奮——高效而可怕的勤奮。

04

怎樣把這個邏輯運用到人的身上?

其實就是我們經常說的——刻意練習。

刻意練習,不能重復地做過去一直在做的、自動完成的動作。

而是要建立一套反饋體系,幫助我們做到高效而可怕的勤奮。

有一本很著名的書,書名就叫《刻意練習》,可能你也看過。

書里介紹了 3 個建立反饋的方法,特別生動形象。

第一個建立反饋的辦法,我們稱之為音樂模式。

什么叫音樂模式?

鋼琴水平是怎么練出來?我身為一個外行,認為肯定是對著琴譜彈唄。

可琴譜可能早在幾百年前就寫好了,所以鋼琴家們不斷練的是什么?

是鋼琴的演奏表演的能力,練的是手法、是節奏。

鋼琴家們會用錄音,發現練習中的錯誤,然后糾正。

刻意練習中的音樂模式,就是把這一小段琴譜,切割成一個個小段,每個段落循環練習。

還有哪些能力,是用這種方法來訓練出來的?

最具代表性的,就是演講能力。

你必須要能站在臺上張口去講,講完每一場,結合大家的反饋做出調整優化。

甚至架個攝像機,把你演講的過程拍下來,然后你一看視頻回放,發現——

  • 我的腿為什么一直在顫抖啊……
  • 我的身體怎么一直往后躲啊……
  • 我怎么說了那么多“然后”啊……

這些是平時感覺不到的,就必須通過觀察和反饋,不斷糾正。

發現了不足怎么辦?下次再講,再錄一遍,不斷重復這種練習。

我曾經寫過一篇文章,是關于我從高中開始學習辯論和演講的故事,年少的我誤打誤撞,進入了刻意練習的音樂模式。

一次次,一段段提高能力,你的水平才會真正的提高。

演講、唱歌、表演……這些技能只有借助音樂模式的反復訓練,才會變成你的能力。

第二個建立反饋的方法,叫做國際象棋模式。

簡單地說,在這個模式下,能力是可以通過找到對手、學習高手來獲得的。

以下棋為例,人類學習下棋,水平提升的快慢,很多時候取決于陪練的水平。

所以,研究高手的棋譜,是棋手們常用的訓練方法。

比如辯論這種能力,如果沒有對手跟你真刀真槍地戰個痛快,可能很難練出來。

再比如說商業,也是當你找到了對手、甚至是宿敵,你才能被激發,真的頓悟。

這就是為什么,很多人經常在說百戰歸來再讀書。

你只有在戰爭中,才能學會戰爭。

第三種建立反饋的模式,體育模式。

體育模式需要我們對單項技能反復練習。

比如說游泳,有個運動員非常厲害,叫菲爾普斯。

你想過一個問題沒有,菲爾普斯都是世界上游泳最快的人之一了,還有人有資格做他的教練嗎?

如果沒有的話,那奧運冠軍豈不是都沒有教練?

但真相是,不論一個運動員多么厲害,旁邊都要有個教練。

既然教練的比賽成績不如運動員,那他們的工作是什么?是基于運動項目的方法論和訓練產生的反饋體系,來幫助運動員不斷提高。

  • 踢足球時,什么位置的任意球要怎么發?
  • 長跑或短跑時,每個階段的步子邁多大?
  • 騎自行車時,什么時候站著什么時候趴下?

所有運動項目的背后,都是行之有效的邏輯和方法。

不是去跟游泳最快的人學游泳,而是要在單項上,用專業方法訓練自己,借助教練的專業知識和經驗給自己反饋,這是體育模式給我們的啟發。

最后的話

很多人號稱自己有 10 年工作經驗,其實,他只是把 1 年的工作經驗,重復了 10 次而已……

重復,不帶來進步,真正的進步,來自“刻意練習”。

所謂的“刻意練習”,是因為不斷反饋、調整,每一次都比上一次有進步。

每個領域最杰出的人,往往是刻意練習時間最久的那個人。

在 AI 時代,很多我們曾引以為傲的能力,被“初生”的人工智能碾壓,這也讓我們變得愈發焦慮和不安。

但每個時代都不乏“天才”,當下更是如此。

找到你的激情和夢想,擁有百折不回的堅毅,掌握刻意練習的方法……

然后,千萬千萬記住,還有勤奮、可怕的勤奮,甚至是高效而可怕的勤奮。

這樣,你會離目標更近一些。

與你共勉!

-End-

作者:劉潤,公眾號:劉潤(ID:runliu-pub)

來源:https://mp.weixin.qq.com/s/bLPw1oVALJosJUE17_EraQ

本文由 @劉潤 授權發布于人人都是產品經理,未經作者許可,禁止轉載

題圖來自Unsplash,基于CC0協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. hoho 原來是劉潤寫的哇

    回復
    1. 此劉潤是彼劉潤???

      來自山東 回復
  2. 你的動圖掛了!顯示不出來

    來自北京 回復