人工不智能,AI產(chǎn)品經(jīng)理要幫助用戶認(rèn)清這一現(xiàn)實
編輯導(dǎo)語:現(xiàn)在,人工智能現(xiàn)在已成為技術(shù)發(fā)展的主流,并且正在影響著大家的生活,仿佛一夜之間,所有東西都開始和人工智能沾起了邊。然而,人工智能真的是完全智能的嗎?事實并非如此,人工智能技術(shù)的主導(dǎo)者是人,有人參與,就必然有主觀意識的存在。假如我們不解決人的問題,那么技術(shù)終究不能解決真正的社會問題。
我為什么要寫?
在人工智能教育領(lǐng)域已經(jīng)兩年多了,隨著人工智能項目落地逐漸增多,工作內(nèi)容也逐漸加大。
就比如除了做產(chǎn)品,也要負(fù)責(zé)人工智能教室的落地培訓(xùn)。比較大的培訓(xùn)就是萬州區(qū)的項目,兩次集中培訓(xùn)包含了50多所中小學(xué),近300名教師。
在給老師們講教育產(chǎn)品的之前,我一般都會講一下人工智能的價值觀念。就像我們從小學(xué)習(xí)“八榮八恥”“弟子規(guī)”一樣,不只要學(xué)習(xí)知識,更要學(xué)習(xí)價值概念,樹立一種正確的人生觀和價值觀。
做AI產(chǎn)品經(jīng)理也一樣,在和客戶溝通之前,讓他樹立正確的價值觀念,形成“批判性”的思維,幫助他認(rèn)清“人工不智能”這一現(xiàn)實,不要再天馬行空的要解決方案了。
接下來,我們就用批判性的思維,來講一下人工智能的價值觀念。
我的觀點(diǎn)是什么?
相信你已經(jīng)聽過太多有關(guān)人工智能的話題,比如:人工智能將會改變世界,人工智能將會讓大多數(shù)人失業(yè)等等。其實,數(shù)據(jù)和算法掌控一切的未來,離我們還非常的遙遠(yuǎn),我們都高估了人工智能。
我向大家推薦一本書《人工不智能(2018-4出版)》,這本書的作者是布魯薩德,哈佛大學(xué)人工智能專家。
他之所以寫這本書是,并不只是帶大家認(rèn)清人工智能發(fā)展的現(xiàn)狀,來告訴大家人工智能并沒有想象中那么好,而是因為人們過分依賴計算機(jī)算法,反而帶來了一系列社會問題,所以他做的是帶大家樹立正確的人工智能價值觀。
我是怎么樣論證我的觀點(diǎn)的?
第一部分:高估人工智能會產(chǎn)生什么樣的社會問題?
第二部分:自動駕駛技術(shù)到底有多難?
第三部分:現(xiàn)階段人工智能的社會化應(yīng)用的根本矛盾是什么?
一、高估人工智能會產(chǎn)生什么樣的社會問題
現(xiàn)在有一種情緒叫做“技術(shù)沙文主義”,認(rèn)為一切社會問題都可以用技術(shù)解決,特別是可以用計算機(jī)技術(shù)解決。而作者認(rèn)為,包括人工智能在內(nèi)的所謂的新技術(shù),其實并沒有解決真正的社會問題。
他在書中舉了一個例子,美國教材分發(fā)的問題。
教材分發(fā)會出現(xiàn)什么問題呢,因為美國和中國的教育體制是不一樣的。中國的教材是由國家統(tǒng)一出版的,價格還便宜。而美國的教材是由私人公司出版的,價格很高。比如一本中學(xué)生教材就要114.75美元。
政府的教育經(jīng)費(fèi)往往有限,有時候分到學(xué)生頭上的教材費(fèi)可能只有30多美元,這樣一來就存在了很大的缺口。
而且自己買教材的辦法也不可行,因為沒有這個渠道,盜版的都沒有。
因為中小學(xué)教材都是由三大公司出版的,直接供貨到學(xué)校,同時考題也是這幾家公司出。換句話說就是你用這家公司的課本,然后用這些公司的考題,一條龍服務(wù),一年幾十億美金的生意。
當(dāng)然有些看似能用技術(shù)解決的問題,也解決不了。比如有時候費(fèi)用到位了,書也買了,但是卻被放置在學(xué)校的倉庫里,沒有發(fā)到學(xué)生手上。
他就就找到了區(qū)教委,區(qū)教委說他們有個中央數(shù)據(jù)庫,有各個學(xué)校訂購教材的數(shù)據(jù)。
把這個數(shù)據(jù)拿過來,結(jié)果一看,很多學(xué)校訂購的教材和學(xué)生人數(shù)都對不上。
因為經(jīng)費(fèi)有限,人手不夠,有些校長需要親自管理教材,有的校長不愿意使用數(shù)據(jù)庫系統(tǒng),自己就弄了個表,很難和別人分享,最后就有一大堆問題。
數(shù)據(jù)技術(shù)再先進(jìn),最初的數(shù)據(jù)錄入也是由人來完成的。如果校長根本不愿意錄入數(shù)據(jù),老師根本不清楚自己班需要多少教材,再先進(jìn)的技術(shù)又有什么用呢?
教育本質(zhì)是因人而異的、混亂的、動態(tài)的系統(tǒng),而公共教育系統(tǒng),是一個統(tǒng)一的、標(biāo)準(zhǔn)的、最好是不變的系統(tǒng)。
蓋茨曾經(jīng)做過標(biāo)準(zhǔn)化大綱和教材,但是不同區(qū)的學(xué)生水平差異很大,用一個標(biāo)準(zhǔn)不合理,學(xué)校沒有自由度。所以就在發(fā)教材這件事上,計算機(jī)人工智能就不能起到很好的作用。
因為計算機(jī)和人工智能擅長解決的是工程問題,工程問題要求定義良好,而復(fù)雜的社會問題恰恰是不能定義良好的。
二、自動駕駛技術(shù)到底有多難
現(xiàn)階段的人工智能,都有一個根本的弱點(diǎn),就是高度的依賴數(shù)據(jù),都是對過去經(jīng)驗的總結(jié),他們沒有辦法預(yù)測“沒見過”的事情。
它適合最常見的,最簡單的,不變的應(yīng)用場景。一旦遭遇變化的場景,就面臨各種問題,比如“自動駕駛汽車”。
零級,代表完全沒有自動化,就是人開車。
- 一級,是指計算機(jī)在某些時候、某種程度上可以給提供一些輔助性的幫助。像自動判車、保持車道、??枯o助系等等。
- 二級,是有的時候汽車以自己開,要求人一直盯著,特斯拉已經(jīng)做到了這個級別。
- 三級,是說人可以不盯著就讓車自己開,但是如果車向你發(fā)信號,你要隨時接管駕駛。
- 四級,是指在某些環(huán)境和條件下,實現(xiàn)自動駕駛,人去睡覺都沒問題。
- 五級,是完全的自動駕駛,不論什么天氣和路況人都不用管車。
至此,任何一家都沒超過二級,有些專家認(rèn)為五級自動駕駛永遠(yuǎn)都達(dá)不到,因為人工智能處理不了意外。
比如說你看見一個殘疾人,坐著電動輪椅,在路中間追逐一只鴨子,鴨子轉(zhuǎn)圈跑,她也繞著轉(zhuǎn)圈跑。
這種情況就能一下子準(zhǔn)確預(yù)測這些人的行動路線嗎?自動駕駛都是靠激光打到各種東西再反射回來,可是如果在下雪或者下雨,激光機(jī)就可能打到雪花或者雨滴上反射,對周圍物體有較大的誤判。
另外自動駕駛還涉及到了一個道德的問題,假如你剎車失靈,前邊有一群小學(xué)生,還有一棵樹,你是選擇撞一群小學(xué)生還是選擇撞一棵樹?
我們說過人工智能是依賴于數(shù)據(jù)積累的。Google一直都在積累數(shù)據(jù),算法都是現(xiàn)成的,真正值錢的是數(shù)據(jù),誰掌握了數(shù)據(jù),誰的自動駕駛技術(shù)才有市場。
人工智能也有很大的局限:第一,不安全;第二,不道德;第三,他不能促進(jìn)商業(yè)平等,它只會讓強(qiáng)大的公司變得更強(qiáng)大。
三、現(xiàn)階段人工智能的社會化應(yīng)用的根本矛盾是什么
美國對罪犯開發(fā)了一個算法,叫做COMPAS,專門判斷一個犯人再次犯罪的可能性大小。有一個評分標(biāo)準(zhǔn),從1到10,分?jǐn)?shù)越高,代表將來犯罪幾率越高。
打分的原理也是采用大數(shù)據(jù),根據(jù)以往的經(jīng)驗,考察若干個關(guān)鍵指標(biāo)。算法給了1分的人,犯罪幾率只有22%,打10分的人,犯罪率高達(dá)81%。
但是有人對這家公司提出了種族歧視的指控,我們都知道預(yù)測的都是概率,哪怕是打了5分以上的分?jǐn)?shù),犯人也不一定會再次犯罪,如果一個犯人明明沒有再犯罪卻打了高分,那么就等于被冤枉了。
而同樣后來沒再犯罪的人,黑人被打高分的可能性是42%,而白人只有22%,就是說算法還是歧視了黑人。
其實這個矛盾在生活中普遍存在,比如上海,基本不存在重男輕女的情況的大城市里,女生的考試成績比普通男生好。
那如果這個規(guī)律,為了提高學(xué)校的總體成績,在高一入學(xué)的時候盡量多錄取女生,這不就是對男生的歧視嗎?
這就是一切基于經(jīng)驗的決策的本質(zhì)缺陷。人工智能再厲害,只要是基于經(jīng)驗的,只要是預(yù)測達(dá)不到100%準(zhǔn)確率,就一定有人被冤枉。
丑小鴨定理說,一切分類都是主觀的,有分類就會有歧視,此事古難全。人工智能為我們的決策提供了很大的方便,但社會還是這個社會,數(shù)學(xué)還是同樣的數(shù)學(xué),人工智能改變不了問題的本質(zhì)。
四、總結(jié)
當(dāng)然,我們談起技術(shù)進(jìn)步,通常聽到的都是好消息。比如偏遠(yuǎn)地區(qū)可以用無人機(jī)送貨,解決送貨難的問題。農(nóng)村可以讓農(nóng)民看電視學(xué)習(xí)技術(shù),解決教育資源有限的問題等等。
技術(shù)給人們帶來一部分方便,但想要全面解決一個社會問題,那就有些難度了。就算是看似成功的實踐,背后也不知道有多少意想不到的情況。
所以,人工智能技術(shù)的出現(xiàn),確實經(jīng)常讓事情更有效率,但寫程序的是人,錄入數(shù)據(jù)的是人,使用系統(tǒng)的是人,只要有人參與,就有主觀意識的存在。
所以不解決人的問題,技術(shù)終究不能解決真正的社會問題。
本文由 @拾壹點(diǎn)伴 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載
題圖來自Unsplash,基于CC0協(xié)議
- 目前還沒評論,等你發(fā)揮!