為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始“接私活”了?

0 評(píng)論 3271 瀏覽 3 收藏 14 分鐘

深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN),在視覺(jué)對(duì)象的分類(lèi)、目標(biāo)檢測(cè)、圖像識(shí)別等方面,完成得比人類(lèi)還要出色,不僅如此,它還可以應(yīng)用于非視覺(jué)領(lǐng)域。

只要是成熟且完成度較高的技術(shù),慢慢就不會(huì)被大家當(dāng)做智能來(lái)看待了。

比如我問(wèn)身邊的老母親老父親老阿姨們,手機(jī)指紋解鎖、手寫(xiě)輸入、地圖導(dǎo)航、游戲NPC、美顏相機(jī)等等是不是人工智能,他們紛紛流露出了質(zhì)疑的小眼神兒:

這么常見(jiàn)樸素不做作,怎么能是AI呢?最起碼也得挑戰(zhàn)一下那些看起來(lái)不可能完成的任務(wù)吧,比如能撒嬌的智能客服,360度旋轉(zhuǎn)跳躍閉著眼的機(jī)器人,掃一眼就能看病的大白,動(dòng)不動(dòng)就血虐人類(lèi)的智能體什么的。

行……吧……如此看來(lái),最“危險(xiǎn)”的要數(shù)計(jì)算機(jī)視覺(jué)了。

估計(jì)再過(guò)不久,人臉識(shí)別、看圖識(shí)物、假臉生成,就要被“開(kāi)除”出AI的隊(duì)伍了。

近年來(lái),深度神經(jīng)網(wǎng)絡(luò)徹底升級(jí)了計(jì)算機(jī)視覺(jué)模型的表現(xiàn)。在很多領(lǐng)域,比如視覺(jué)對(duì)象的分類(lèi)、目標(biāo)檢測(cè)、圖像識(shí)別等任務(wù)上,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)完成的比人類(lèi)還要出色,相關(guān)技術(shù)解決方案也開(kāi)始頻繁出現(xiàn)在普通人的生活細(xì)節(jié)之中。

這就夠了嘛?并沒(méi)有!視覺(jué)模型表示自己除了在圖像任務(wù)里很好用,非圖像任務(wù)也是一把好手。

前不久,深度學(xué)習(xí)開(kāi)發(fā)者,Medium知名博主 Max Pechyonkin在其博客中,介紹了將視覺(jué)深度學(xué)習(xí)模型應(yīng)用于非視覺(jué)領(lǐng)域的一些創(chuàng)造性應(yīng)用。

咱們就通過(guò)一篇文章,來(lái)了解一下求生欲極強(qiáng)的視覺(jué)模型是如何在其他領(lǐng)域發(fā)光發(fā)熱的吧。

生活不易,DNN賣(mài)藝

由于有遷移學(xué)習(xí)和優(yōu)秀的學(xué)習(xí)資源,DNN在計(jì)算機(jī)視覺(jué)領(lǐng)域的應(yīng)用落地遠(yuǎn)超于其他任務(wù)類(lèi)型。

加上各種開(kāi)放平臺(tái)和公開(kāi)的預(yù)訓(xùn)練模型加持,任何人都可以在數(shù)天甚至數(shù)小時(shí)內(nèi),將視覺(jué)深度學(xué)習(xí)模型應(yīng)用于其他領(lǐng)域。

兩年前,就有外國(guó)農(nóng)民開(kāi)發(fā)出了自動(dòng)檢測(cè)黃瓜的智能程序,北京平谷的桃農(nóng)也用上了自動(dòng)檢桃機(jī)。

背后的技術(shù)邏輯也很容易理解:先選用一個(gè)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型(可以在開(kāi)放平臺(tái)上輕松地找到),將各種帶有標(biāo)簽的圖片扔進(jìn)去,跑出一個(gè)baseline,主要是為了確定數(shù)據(jù)集是否合適,圖像質(zhì)量和標(biāo)簽是否正確,需不需要調(diào)試等等。

OK以后,就可以投喂處理過(guò)的圖像數(shù)據(jù)集了,一般圖像越多、標(biāo)注質(zhì)量越高,模型的性能和準(zhǔn)確率就越好。

聽(tīng)起來(lái)是不是學(xué)過(guò)高中數(shù)學(xué)就能搞定?

既然技術(shù)門(mén)檻并不高,其應(yīng)用范圍自然也就被無(wú)限延伸。面對(duì)很多非視覺(jué)類(lèi)的原始訓(xùn)練數(shù)據(jù),視覺(jué)模型也表示“不慫”。

其中有幾個(gè)比較有意思的應(yīng)用案例:

1. 幫石油工業(yè)提高生產(chǎn)效率

石油工業(yè)往往依賴(lài)于一種名叫“磕頭機(jī)”的設(shè)備開(kāi)采石油和天然氣,通過(guò)游梁活動(dòng)讓抽油桿像泵一樣將油從地下輸送到表面。高強(qiáng)度的活動(dòng)也使抽油機(jī)極容易發(fā)生故障。

傳統(tǒng)的故障檢測(cè)方式是,邀請(qǐng)非常專(zhuān)業(yè)的技術(shù)人員檢查抽油機(jī)上的測(cè)功計(jì),上面記錄了發(fā)動(dòng)機(jī)旋轉(zhuǎn)周期各部分的負(fù)載。通過(guò)卡片上的圖像,判斷出哪個(gè)部位出現(xiàn)故障以及需要采取什么措施來(lái)修復(fù)它。

為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始接私活了?

這個(gè)過(guò)程不僅耗時(shí),而且只能“亡羊補(bǔ)牢”,無(wú)法預(yù)先排除風(fēng)險(xiǎn)。

而石油公司正在試驗(yàn),將視覺(jué)深度學(xué)習(xí)應(yīng)用到故障檢測(cè)中。

貝克休斯(Baker Hughes)公司就將測(cè)功計(jì)轉(zhuǎn)換成圖像,然后作為數(shù)據(jù)集傳給ImageNet預(yù)訓(xùn)練好的模型中。結(jié)果顯示,只需采用預(yù)訓(xùn)練好的模型并用新數(shù)據(jù)對(duì)其進(jìn)行微調(diào),機(jī)器自動(dòng)檢測(cè)故障的準(zhǔn)確率就達(dá)到了93%,進(jìn)一步優(yōu)化則接近97%!

為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始接私活了?

(左側(cè)是輸入圖像,右側(cè)是故障模式的實(shí)時(shí)分類(lèi)。系統(tǒng)在便攜設(shè)備上運(yùn)行,分類(lèi)時(shí)間顯示在右下角)

應(yīng)用了視覺(jué)算法訓(xùn)練出來(lái)的新模型,不需要等待專(zhuān)業(yè)人員的排期和診斷,就可以自行判斷絕大多數(shù)故障并立即開(kāi)始修復(fù)。聽(tīng)起來(lái)是不是很棒很奈斯?

2. 幫金融網(wǎng)站進(jìn)行在線風(fēng)控

金融網(wǎng)站與欺詐團(tuán)伙的斗智斗勇,往往是一場(chǎng)“道高一尺魔高一丈”的技術(shù)軍備競(jìng)賽。想要區(qū)分訪問(wèn)者是普通客戶還是潛在風(fēng)險(xiǎn)客戶,僅僅依靠IP過(guò)濾、驗(yàn)證碼等互聯(lián)網(wǎng)技術(shù)顯然不夠了。

但如果金融網(wǎng)站的系統(tǒng)能夠根據(jù)鼠標(biāo)使用模式來(lái)識(shí)別用戶行為,就能夠預(yù)先規(guī)避欺詐交易的發(fā)生。要知道,欺詐者使用電腦鼠標(biāo)的方式是獨(dú)一無(wú)二而且非常異常的。

但如何得到一個(gè)深度學(xué)習(xí)鑒別模型呢?Splunk就將每個(gè)用戶在每個(gè)網(wǎng)頁(yè)上的鼠標(biāo)活動(dòng)轉(zhuǎn)換為單個(gè)圖像。用不同的顏色編碼代表鼠標(biāo)移動(dòng)的速度,紅點(diǎn)和綠點(diǎn)則代表使用了鼠標(biāo)鍵。這樣,就得到了大小相同、且能夠應(yīng)用圖像模型的原始數(shù)據(jù)了。

為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始接私活了?

Splunk用了一個(gè)由2000張圖片組成的訓(xùn)練集,進(jìn)行了2分鐘的訓(xùn)練后,系統(tǒng)就能識(shí)別出普通客戶和非客戶,準(zhǔn)確率達(dá)到80%以上。

對(duì)于某個(gè)特定用戶,系統(tǒng)還能夠判斷出哪些是用戶自己發(fā)出的,哪些是模仿的。這次只用了360張圖片就訓(xùn)練出了78%左右的準(zhǔn)確率。麻麻再也不用擔(dān)心我的理財(cái)賬戶被盜了。

3. 通過(guò)聲音檢測(cè)進(jìn)行動(dòng)物研究

2018年10月,谷歌的研究人員使用視覺(jué)CNN模型對(duì)一段錄音進(jìn)行了分析,檢測(cè)到了其中座頭鯨的聲音。

他們將音頻數(shù)據(jù)轉(zhuǎn)換成了視頻譜,一種表示音頻頻率特征的圖像。

為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始接私活了?

然后使用了Resnet-50架構(gòu)來(lái)訓(xùn)練這個(gè)模型。有90%的鯨魚(yú)歌聲音頻被系統(tǒng)正確歸類(lèi)。而如果一首錄音是鯨魚(yú)的,也有90%的幾率它會(huì)被貼上正確的標(biāo)簽。

這項(xiàng)研究成果可以用來(lái)跟蹤單個(gè)鯨魚(yú)的運(yùn)動(dòng)、歌曲的特性、鯨魚(yú)的數(shù)量等。

同樣的實(shí)驗(yàn)也適用于人類(lèi)語(yǔ)音、工業(yè)設(shè)備錄音等等。使用類(lèi)似librosa這樣的音頻分析軟件,就可以用CPU生成時(shí)頻譜。

至此,可以總結(jié)一下視覺(jué)深度學(xué)習(xí)模型“跨次元”應(yīng)用的基本操作了:

1. 將原始數(shù)據(jù)轉(zhuǎn)換成圖像;

2. 使用預(yù)訓(xùn)練的CNN模型或從頭訓(xùn)練一個(gè)新模型進(jìn)行訓(xùn)練。

由此得到一個(gè)能夠解決非視覺(jué)問(wèn)題的新模型。

開(kāi)腦洞才是最難的

當(dāng)然,上述都是作者分享的一些已經(jīng)在實(shí)踐中取得成效的應(yīng)用,我們還可以將其應(yīng)用于很多有趣、有意義的場(chǎng)景之中。前提是,能夠找到一種將非視覺(jué)數(shù)據(jù)轉(zhuǎn)換成圖像的方法。

比如兒童餐食的健康問(wèn)題,僅靠學(xué)校食堂和家長(zhǎng)自學(xué)營(yíng)養(yǎng)學(xué)顯然不是一個(gè)足夠效率、且能大規(guī)模推廣的辦法。

利用視覺(jué)模型,可以對(duì)餐盤(pán)的自動(dòng)掃描與檢測(cè),對(duì)圖像中的餐食特征和瑕疵點(diǎn)進(jìn)行提取,以此推測(cè)出餐盤(pán)和飲食的潔凈度是否合格,營(yíng)養(yǎng)搭配是否符合基本要求。

為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始接私活了?

再比如,通過(guò)智能攝像頭將零售商超中的人群分布和動(dòng)線轉(zhuǎn)化為圖像,進(jìn)行分析和檢測(cè),可以判斷出不同社區(qū)的需求和消費(fèi)特征,從而有針對(duì)性地進(jìn)行選品和陳設(shè),進(jìn)一步提升坪效?;蛘呤峭ㄟ^(guò)汽車(chē)行駛軌跡來(lái)預(yù)測(cè)和優(yōu)化不同時(shí)段的路況及定價(jià)。

總而言之,目前計(jì)算機(jī)視覺(jué)模型早已從實(shí)驗(yàn)室和科學(xué)家案頭,幫助越來(lái)越多的現(xiàn)實(shí)問(wèn)題尋找解決方案。

由此也可以看出,在AI落地中并不缺成熟、可落地的算法,大開(kāi)腦洞的創(chuàng)造力才是最難的。

當(dāng)然也有隱患

作為一個(gè)負(fù)責(zé)任的“AI吹”,故事顯然不能在“AI好AI妙A(yù)I呱呱叫”中戛然而止。

雖然計(jì)算機(jī)視覺(jué)表現(xiàn)出了極大的適應(yīng)性,但在實(shí)際應(yīng)用時(shí),有一些缺點(diǎn)是其本身也沒(méi)有解決的,這也導(dǎo)致很長(zhǎng)一段時(shí)間內(nèi),圖像識(shí)別、生成等應(yīng)用還能被當(dāng)做展示人工智能的神奇能力而被夸耀著。

首先,是視覺(jué)神經(jīng)網(wǎng)絡(luò)對(duì)于圖像變化和背景過(guò)于敏感。無(wú)論是轉(zhuǎn)換非視數(shù)據(jù),還是直接訓(xùn)練原始圖片,機(jī)器視覺(jué)的處理邏輯都是將圖像轉(zhuǎn)換為系統(tǒng)可理解的“數(shù)字”,再進(jìn)行對(duì)比和識(shí)別。因此,將背景和變化等噪音識(shí)別成其他物體也就不足為奇了。

為了不被踢出AI的隊(duì)伍,視覺(jué)深度模型都開(kāi)始接私活了?

(在照片中增加不同的物體,會(huì)影響照片中原有的猴子的識(shí)別結(jié)果)

既然是通過(guò)視覺(jué)模型進(jìn)行訓(xùn)練,那就需要大量有標(biāo)注的高質(zhì)量數(shù)據(jù),而在現(xiàn)實(shí)應(yīng)用中,一些非圖像的原始數(shù)據(jù),比如用戶鼠標(biāo)習(xí)慣、零售店動(dòng)向等等,包含了多個(gè)維度、不同數(shù)量的數(shù)據(jù)點(diǎn),不僅標(biāo)記數(shù)據(jù)集的工作耗時(shí)耗力,而且訓(xùn)練這些龐大的數(shù)據(jù)也需要大量的GPU資源。

但遺憾的是,受標(biāo)注質(zhì)量、模型準(zhǔn)確率、專(zhuān)業(yè)領(lǐng)域知識(shí)等影響,最終的成果在真實(shí)世界中的體驗(yàn)也可能非常糟糕。想要讓商業(yè)機(jī)構(gòu)冒著投資打水漂的風(fēng)險(xiǎn)進(jìn)行嘗試,恐怕還有很多工作要做。

更何況,視覺(jué)深度模型并不是一種放之四海而皆準(zhǔn)的解決方案,有些任務(wù)是難以進(jìn)行視覺(jué)化標(biāo)注,或者實(shí)現(xiàn)成本很高的,短時(shí)期內(nèi)也只能望AI興嘆了。

總而言之,視覺(jué)深度學(xué)習(xí)模型的成熟和非視覺(jué)場(chǎng)景的試探,給AI開(kāi)發(fā)帶來(lái)了新的故事和想象力,比起千箱一面的智能語(yǔ)音、人手一個(gè)的人臉識(shí)別,更令人驚喜,實(shí)用性也值得期待。

不過(guò)本質(zhì)上講,一切技術(shù)問(wèn)題最后都是經(jīng)濟(jì)學(xué)問(wèn)題。只要不計(jì)成本,總能搞得出來(lái)?!度w》中,秦始皇不也用三千萬(wàn)大軍搞出了能計(jì)算太陽(yáng)運(yùn)行軌道的人形計(jì)算機(jī)隊(duì)列嗎?

這也和如今的人工智能產(chǎn)業(yè)現(xiàn)狀悄然重合,技術(shù)不是關(guān)鍵性問(wèn)題,沒(méi)錢(qián)又不會(huì)搞工程的項(xiàng)目,就別讓AI背鍋了吧……

 

作者:腦極體,微信公眾號(hào):腦極體

本文由 @腦極體 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來(lái)源于 Unsplash,基于CC0協(xié)議

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒(méi)評(píng)論,等你發(fā)揮!