下一個人機交互的突破口在哪?

2 評論 5209 瀏覽 27 收藏 10 分鐘

思考一個問題:下一個人機交互的突破口在哪?AR?VR?還是智能家居?還是別的?

手機是目前最重要的人機交互終端,那么下一個人機交互的突破口在哪?AR?VR?還是智能家居?

經過深思熟慮后,我認為以上三個都不是,主要理由有以下三點:

1.?技術的可行性

目前AR在圖像識別、理解上仍處于一個初級階段,而且AR需要一塊高性能、低功耗的芯片才能更好地運作,我們可以認為目前市面上還沒有這樣的芯片。VR在感官通道上只用到了視覺、聽覺以及極少量的觸覺通道(控制器震動)。如果沒有觸覺的感知,我們在VR中就會缺乏真實感,整個體驗會大打折扣。

智能家居的前提是物聯(lián)網的搭建,目前還處于一個初級階段,只有萬物互聯(lián)了,設備才能更好地理解場景和用戶的需求。同時,AR、VR和智能家居的發(fā)展都依賴于5G網絡,目前的5G網絡處于一個剛起步的階段。

2.?交互的易用性

目前大部分AR應用都運行在手機上,這導致了用戶使用AR應用時需要抬起手對附近的事物進行掃描和追蹤,長時間的抬手會引起用戶的肌肉酸痛,所以手機并不是運行AR應用的最佳終端。

而VR硬件設備體積龐大,用戶不可能隨身攜帶,也不可能長時間穿戴頭戴VR設備。況且,現(xiàn)在的VR控制器無法很好地將手部動作映射到虛擬世界里,這兩個痛點直接導致VR的體驗急劇下降,所以目前VR的人機交互方式還有很漫長的路要走。

3.?人類注意力的集中程度

在人類感知信息的途徑里,通過視覺、聽覺、觸覺、 嗅覺和味覺獲取外界信息的比例依次為 83%、11%、3.5%、1.5% 和1%。

為什么手機的多模交互發(fā)展得如此之慢?

我認為是用戶把注意力都集中在手機屏幕上,他們通過視覺通道獲取外界信息的比例已經遠遠超過83%,而且視覺接收信息的速度遠超于其他感官通道。所以在手機上語音交互和觸感交互就不怎么需要了。

但是在家里,用戶的注意力是極度分散的,所以智能家居很難知道用戶幾時和你進行交互。如果智能設備經常主動搭訕的話,用戶會覺得你這個設備超級煩,甚至覺得自己的隱私被侵犯,所以目前的智能家居處于一個“單戀但不能表白”的狀態(tài)。

綜上所述,AR、VR和智能家居在未來一段時間內都不會成為下一個人機交互的突破口,那么我們該如何尋找下一個突破口呢?

我認為需要先對下一代人機交互進行定義,我認為下一代人機交互應該包含多模交互和AI設計。多模交互是指用戶通過感官通道以及肢體語言與機器進行交互,而AI設計更多是指機器通過技術手段收集更多的信息,然后主動發(fā)起交互,或者減少人類和機器之間的交互流程。

我們做設計喜歡講場景,場景包含了人、環(huán)境和事項三個因素,就跟三角形一樣,具有穩(wěn)定的幾何結構。

下一個人機交互的突破口在哪?

現(xiàn)在的場景化設計主要指移動應用的設計,它更多圍繞著事項進行設計,但無法圍繞人和環(huán)境做更多的分析。因為手機是用戶的貼身工具,它需要保護用戶的隱私;而且手機的電量是有限的,長時間開啟傳感器是不允許的,這導致手機無法時刻感知人體和周圍環(huán)境的信息,而我們知道人體和環(huán)境是會發(fā)生變化的。

因此,脫離了人和環(huán)境動態(tài)變化的場景化設計是相對簡單的,這更多是一個概率問題。簡單點說就是推測什么樣的用戶會在什么狀態(tài)以及環(huán)境下使用該產品,而用戶研究主要用于提升設計的準確率。

我認為AI設計跟場景化設計是類似的,但場景化設計更多是指設計師通過用戶研究得出的結論后進行的設計,它具備標準化;而AI設計更多是一種參數化設計,它會根據不同的狀態(tài)進行實時的自我調整,它具備個性化,它能自主發(fā)起交互,也能提高交互的效率。所以我認為AI設計才是真正意義上的場景化設計。

那么哪個領域適合做AI設計呢?我認為汽車的駕駛座是一個不錯的選擇,主要理由如下:

(1)人坐在駕駛座上主要目的是開車,所以事項非常明確。

(2)駕駛座等于一個智能系統(tǒng),而人是在智能系統(tǒng)內的,所以為了安全駕駛,駕駛座實時監(jiān)測用戶狀態(tài)是可行的。在駕駛過程中汽車可以通過攝像頭知道司機是誰,還可以通過各種傳感器實時監(jiān)測車主的疲勞和心率狀態(tài),并且在計算機視覺的幫助下,汽車可以通過用戶的臉部表情實時分析司機的意圖并提前作出判斷。用戶的身體狀況和意圖已經成為智能駕駛的關鍵數據。

(3)駕駛座是一個固定的小環(huán)境,司機和駕駛座的關系是基本不變的,但汽車又會和周圍環(huán)境發(fā)生交互,這時候我們可以通過各種傳感器以及數據分析為司機提供準確的服務。例如:我們可以通過GPS大概知道汽車是在城市公路還是高速公路上,如果在高速公路上我們可以引導司機開啟自適應巡航控制;當汽車停下來時,我們可以通過計算機視覺知道汽車是在等紅綠燈還是已經到達了停車場;如果在停車場我們可以推薦用戶使用自動泊車系統(tǒng)。

基于以上三點,我們可以認為車內駕駛座在絕大多數情況下不會有明顯的場景變化,引起變化的原因更多來自于車外環(huán)境以及司機身體、情緒發(fā)生的突然變化,而這些我們都可以通過AI設計提前避免。

例如我們可以通過監(jiān)測人體數據實時告訴司機他現(xiàn)在是否適合駕駛;以及通過AI技術減少部分事件的交互流程,降低司機注意力分散的頻率;同時汽車的ADAS(Advanced Driver Assistance System,高級駕駛輔助系統(tǒng))技術可以將事故發(fā)生率降低70%,保障司機和乘客的生命安全。

除了AI設計,多模交互在汽車內也能被充分發(fā)揮,理由如下:

  1. 當視覺通道以及大部分注意力都被前方道路占用時,聽覺和觸覺自然而然成為最安全的信息接收通道。
  2. 司機在不看方向盤的情況下,可以通過肌肉記憶和觸覺與方向盤上的按鍵進行交互。
  3. 當司機倚靠在座椅時,人體背部到腿部的觸覺都能感應到座椅發(fā)出的信號,理論上來說,人體的觸覺系統(tǒng)能充分地與汽車智能系統(tǒng)進行交互。
  4. 司機的臉部表情和手勢動作都可以被車內攝像頭識別并分析相應的意圖。
  5. 汽車整理不同傳感器得到的數據后,可以通過語音、方向盤、駕駛座甚至氛圍燈主動向司機發(fā)起交互。

除了AI設計和多模交互,在汽車內做設計還要考慮空間設計以及整合設計,這些設計的目的都是為司機和乘客提供更安全的出行體驗。

簡單理解的話,你的設計可能會拯救一條生命,這比互聯(lián)網的設計更有意義,更有使命感。同時,很多HMI(Human Machine Interface,人機交互)的設計理論和知識都與HCI(Human Computer Interface,人機交互)有關,這些知識將為未來的人機交互打下夯實的基礎,所以汽車將會是未來人機交互的突破口。

#專欄作家#

薛志榮,微信公眾號:薛志榮,人人都是產品經理專欄作家。暢銷書《AI改變設計-人工智能時代的設計師生存手冊》作者,全棧開發(fā)者,專注于交互設計和人工智能設計。

本文原創(chuàng)發(fā)布于人人都是產品經理。未經許可,禁止轉載

題圖來自 Unsplash,基于CC0協(xié)議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 我覺得未來人機交互的突破口在智能眼鏡

    回復
  2. 。。

    回復