AR眼鏡的兩種交互模式
編輯導語:AR眼鏡,最早是由谷歌率先推出,帶上它你的面前會出現(xiàn)各種炫酷的虛擬的視覺效果,無需屏幕,就可以實現(xiàn)信息交互。在我國工信部推出的5G宣傳片里,大量運用了AR相關的內(nèi)容。5G時代是萬物互聯(lián)的時代,而AR眼鏡將是這一切的入口。
AUI,Augmented User Interface或Augmented User Interaction,是指有視覺或者確實深度信息的虛實結(jié)合的用戶所見界面。
在電腦最開始出現(xiàn)的時候,鍵盤是它的輸入方式,然后鼠標隨后而來。接著,隨著手機形態(tài)的到來和不斷發(fā)展,我們從按鍵輸入到習慣了用手指直接觸碰屏幕界面。
到現(xiàn)在,觸碰屏的輸入已經(jīng)進化到可以區(qū)分手指的數(shù)量和按壓的輕重,還有語音、遙控器、隔空手勢等。更多的交互模式正在隨著技術的發(fā)展,進入我們可設計的范圍。
可以看到,設備交互模式的設計與技術息息相關,比如你無法在一款沒有壓感屏幕的手機上選用以按壓輕重來進行輸入的方式(3D touch功能)。
當我們習慣了為手機或PAD設計應用,就會習以為常的使用行業(yè)內(nèi)已知和通用的交互方式和設計樣式,將更多的精力聚焦到應用具體的場景和用戶的群體分類上,從而忽略當初形成這些設計通識和規(guī)范的技術條件和終端設備形態(tài)。
誠然,場景定義和用戶群體依然是設計交互時不可避開的考慮因素,然而在現(xiàn)今以AR眼鏡為設備的AUI設計里,我們不得不重新考慮技術條件和終端設備形態(tài)。
基于場景定義,我從使用者的角度將AR眼鏡的交互模式分為兩個大類:用手操作和非手操作。
一、用手操作
這是我們非常熟悉的一類交互模式,屏幕UI的主要交互模式就是用手操作的,無論是通過手指敲打鍵盤、移動鼠標,還是用手滑動屏幕、點擊圖標,或者是用遙控器操作光標,播放視頻,無疑都是需要用戶使用手來進行操作的。
在AR眼鏡界面的設計中,使用可識別的手勢、眼鏡設備上的硬按鍵、額外配備的遙控器等,都被我歸類為用手操作的交互模式。
1.?手勢
在AR眼鏡的形態(tài)下使用手勢進行交互是一種符合自然和習慣的交互模式,拿取東西、放置物品,我們?nèi)祟愄焐晳T于用手和這個世界做交互,然而在AR眼鏡界面的設計中要使用手勢作為交互:
首先得保證這臺AR眼鏡具有手勢識別的功能,其次,也要考慮識別的效度、精度和準度(見《 AR設計師需要了解的6個技術點》)。
2.?按鍵/觸屏
正如手機會帶一些簡單的硬按鍵一樣,有些AR眼鏡也會自帶一些按鍵或觸屏來支持用戶輸入。
比如我司自研的AR眼鏡上帶了三個硬按鍵,我們在系統(tǒng)層級上為單擊它們定義了確定、返回、息屏/亮屏的操作語義,在設計具體的應用時,也可以增加定義雙擊、長按等操作。
又比如Google最早的一代AR眼鏡,在眼鏡的一側(cè)增加了觸控板來支持用戶進行輸入。
3.?遙控器
遙控器作為外接設備,也是提供AR眼鏡界面可交互的一種方式。
這種交互比起上面兩種交互方式來說是最不容易累的,因為手勢如果要被識別,需要抬高手臂讓你的手勢進入AR眼鏡能看得見的地方,而按鍵和觸屏,因為它本身就在AR眼鏡上,你也必須抬起手臂讓手指能夠得著它們。
這樣兩種操作方式雖然可以給手臂做做運動,但總歸不是持久之計,使用遙控器就會舒適很多。對于人們來說,這也是一種非常熟悉的交互方式,就像電視機遙控器一樣。
但它同樣也有缺點,就是你除了買一臺AR眼鏡,必須還得多付一個遙控器的錢,并且使用AR眼鏡的時候都得多帶一個它。遙控器這個方案我們也考慮過使用手機替代,那么缺點就是得額外下載一個專屬應用。
另外,因為戴著AR眼鏡,再看手機屏幕并不是那么方便,需要考慮如何設計讓用戶在盲操作的情況下依然較為方便的使用手機屏幕作為遙控器。
二、非手操作
基于AR增強現(xiàn)實的特點,一定會有這樣的場景,用戶雙手都在和現(xiàn)實世界互動,無法同時在去用手來操作AR眼鏡里的界面,比如維修。
基于頭戴式設備的特點,首先介紹一個非常類似光標的概念,叫做Gaze,翻譯為凝視。
在上述用手操作的模式里其實也會用到它,不過有時候我們可以用上下左右或者不同手勢來區(qū)分不同的觸發(fā)對象,而在非手操作里,它就必不可少了。
在AR眼鏡里,這個類似于光標的gaze點是在模擬用戶眼睛所看到的焦點,通常情況下,用戶會在有進一步意愿的目標物上多看幾眼,不同于一般的看,而是凝視(Gaze:a long look,usually of a particular kind),最簡單的非手操作交互模式便是由此而來。
凝視+讀秒
當可交互對象被Gaze激活,且用戶選擇在特定時間內(nèi)保留這個激活狀態(tài)達到設定時間長度時,交互被確認,界面自動響應此交互對象關聯(lián)的后續(xù)操作。
需要注意的是,上圖中的button指代所有可交互對象,真實或虛擬均可。
在實際的設計時,這個具體的設定時間是一個難點,長了會讓用戶等待,短了又會引起誤觸,需要根據(jù)實際情況進行考量。這個關鍵點就是在判斷什么時候用戶是真的想交互而不是單純的看看,我之前寫過一個專利,在AR眼鏡中加入了腦電波的技術用于判斷一些簡單的確認命令,也是在探索技術發(fā)展后我們可能會有的更聰明的交互方式。
在AR設備里,凝視根據(jù)技術水平的不同,可以區(qū)分為頭部凝視和眼睛凝視。
眼睛凝視需要設備有眼動跟蹤的能力,而頭部凝視則一般設定顯示FOV中間為眼睛凝視的焦點,通過頭部移動帶動位于顯示FOV中間的Gaze去移動,這也是前面的D類窗口無法使用頭部凝視與之交互的原因,兩者均基于FOV移動,相對位置基本不變。
通俗的說法就是,你動它也動,就是點不到。
除了凝視和提交,語音也是非手操作里一個常用的交互方式,和在其他硬件設備上使用語音交互一樣,室外嘈雜環(huán)境和隱私性是它的一個難點。
另外,和手勢識別一樣,語音識別也是需要考量精度、效度和準度的。
AUI作為一個觸點,它的交互模式和屏幕UI一樣都是以技術的水平和發(fā)展為基礎的,而作為設計師的我們,在基于場景和用戶之前理解機器(技術),也許才能設計出在當前技術條件下更接近于自然的人機交互方式。
作者:林影落,10年+體驗設計師,專注AR及創(chuàng)新領域設計;微信公眾號:林間有影落
本文由 @林影落 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載
題圖來自 Pexels,基于 CC0 協(xié)議
可以加微信嗎,正在學習AR的相關東西
1