干貨貼:關于VR產品的幾點設計思考
最近不做VR了,把做VR時一些踩過的坑和經驗寫給大家分享下,有可能說的不對,請見諒。
首先給大家科普下,目前VR分為3大類型,
- PC(htc vive、occlous)
- 主機(PS VR)
- 手機(暴風魔鏡等)
這幾款設備的應用開發工具,大部分是U3D,和少量UE4的開發工具(其實VR開發大部分比較像原來3D游戲,場景是3d的,GUI可能有一些區別,我覺得如果是游戲行業轉行到VR產品的話有很大優勢)
因為VR火的是視頻和游戲,所以老板可能大部分是做影視和游戲出身的。這個時候產品經理和老板可能會有些沖突,尤其針對影視的老板,可能更講究視覺效果,可能會因為粒子特效等原因,非常耗能量,針對主機、電腦還好,手機端要考慮手機的續航能力,以及活動范圍都會因為能耗問題。
言歸正傳,針對VR產品設計問題,有以下幾個思路:
- 界面設計
- 交互行為
功能設計這里不做細說,基本跟普通的產品設計差不多。
1.界面設計
其實很多人在做界面設計時很有疑惑,平時做手機端、pc端還好,都是2d用axure就能滿足了,但是VR是3d的怎么畫才能描述給開發樣子。我當時也很疑惑,對于我這種u3d也不是很精的小白來說,用u3d畫原型時間太長了。所以當時搜索了點文檔,其實可以大致分為這么2種畫法。
首先根據3d是分x,y,z:
比2D多一個坐標系來說,景深對于VR設計的視覺效果有很大關系。根據谷歌文檔來說,最近對于觀察者距離不要超過1.5m,因為眼鏡的鏡片其實是凸透鏡,對于視線內物體其實是進行放大的。如果當一個物品對于用戶過近,會造成眼睛對焦不準問題。
這個1.5m是針對移動端眼鏡設計來說,因為移動端眼鏡并不具備空間位置捕捉,所以用戶不能對過近位置物品進行調整遠近的操作,所以最好不要低于1.5m(其實理論上應該是0.5m)。根據這個原理在頁面設計中可以引入等高線景深設計方法。
在里面進行標注后,在下面進行相應功能設計,紅線區域說明該位置對于用戶過遠或過近為預警區域,藍色區域對于用戶是相對于舒適區域。
這種方法其實是針對于用戶整體布景擺放(固定用戶)。
另一種設計方法,針對于用戶菜單界面設計方法,以用戶視角的主區域、次區域進行區分。
這里引入3種概念:
- 主區域:主區域指用戶進入該場景后,第一眼看到的界面,即主界面
- 輔助區域:為用戶進行頭部位移后才可看到的區域為輔助區域
- 交界處:主、輔助區域交界處,為用戶進入后該菜單、物品不出現在用戶第一視覺,而出現在兩區域交界處,即余光所看區域
為什么這么去做?
因為人在真實的世界中FOV大致在210度(FOV指人眼能看到畫面的角度),在VR眼鏡中達不到這個度數,根據各家眼鏡的不同FOV的度數也各不盡相同了。人的視場角越大,體驗就會越好,給人的感覺會越真實。為了取匹配小度數的眼鏡,如果不把菜單很多的時候放在交界處的話,用戶會不知道你哪有菜單、哪沒有菜單,從而加大用戶要找來找去的時間。所以在設計的時候盡量去保證菜單位置。
在界面菜單設計中,菜單主要分為以下這幾種:
- 不可移動,溶于場景的,一直顯示的
- 進行跟隨,一直顯示的
- 進行跟隨,不一直顯示的
注:不可移動不一直顯示的盡量不要去做,因為用戶找不到你的菜單
由于菜單過多,可對有些常用操作進行隱藏,當用戶的視線移入該熱點區域時,進行該菜單的顯示,對于一些菜單顯示,建議按以下角度進行制作。
是對于頸椎壓力的問題,如果菜單放的過于往下,用戶需要向下低頭太多,對頸椎,以及用戶體驗性都不會很好。
忘了跟大家說了,再系統設計時,為了保證用戶看起來的3D效果,其實整個畫面是兩個球。
每個球其實是個場景,每個場景里面都會有相對應的相機,相機要保持一定的瞳距(忘了原來測量瞳距的數據了),為了節省性能,場景不要用3D場景,基本上通過360°相機進行場景渲染,在這兩個球中放置相對應左、右眼場景,這個場景要有位移差的,只有這樣才能保證用戶在通過VR眼鏡看到的時候是3D場景,而不是照片。
交互行為
其實對于VR交互,手機端能用來做特效的交互效果很少,大部分通過點擊、滑動、頭部擺動進行交互。
雖然移動端已經大部分在頭顯上擁有觸控板、或者有遙控器,但是對用用戶帶上眼鏡后根本看不到自己的手在哪的情況下操作起來很難,而手機也無法想電腦端的眼鏡一樣吧人手虛擬出來。所以在移動端的交互行為便比較艱難了。
這里有4種建議:
1、默認采用頭瞄點進行操作,用戶可切換成觸控板模式。
針對頭瞄點操作時,一定要有讓用戶反應的時間,如盯住某一東西3秒后,進行加載條顯示開始進入選擇時間,避免用戶的緊迫感。
2、在用觸控板的時候要多用滑動形式進行操作。
例如翻頁等操作,如果用了觸控板,還讓用戶點擊操作,真的很傻。
3、用頭部動作識別。
這個一定要有教學,而且盡量不要太大的動作,比如用戶微微搖頭(左右10度左右)進行當前菜單關閉什么的,要通過時間、和動作兩層因素去判斷,要不然用戶一動就把什么誤操作了會。
4、用語音識別。
現在語音功能很強大, 可以吧一些簡單操作做成語音識別形式。但是,要考慮到用戶使用環境、方言等問題存在,如果一個系統都用語音識別操作的話,那可能有很大問題。
3、4的交互模式應用時,請一定要加上1模式、2模式,不要單用一種模式進行交互。
除卻用戶行為交互來說,對于畫面中反饋交互其實也很有研究。
在用戶中操作中存在幾種操作類型,移入、選中、退出,對應每個操作類型最好有相應的狀態描述,如背景顏色、焦點狀態、文字狀態,給用戶一種反饋,每種反饋以時間來作為衡量。
不過不寫這么多也可以,就是可能在用戶體驗上有點枯燥無味。
除此之外,對于有些眼鏡,比如GEAR之流,可以做光感反饋,可以設置幾個如下規則:
- 頭盔上光感器被遮擋進行陀螺儀復位操作,保持視角正前方。
- 當光感器未被遮擋時3S后,自動停止直播,進入休眠狀態。
- 當光感器被遮擋時,開始直播,進入喚醒狀態。
好吧,就這些吧,純屬小白自己探索時的一些產品設計想法,如有反對,勿噴哦~
作者:呆懶龍,兩年經驗帝都產品狗,原來做了一陣VR,現在投身大數據行業。
本文由 @呆懶龍 原創發布于人人都是產品經理。未經許可,禁止轉載。
我想冒昧的問一下為什么不做AR了,馬上要大四了但是方向一直不明確,一直決定不了去做互聯網交互方面還是做老師
厲害,
用語音識別的配圖錯了。。吧?
我想我們可以聊聊,我也是做VR的,QQ:775194971
我已經不做了。。。。。。 ??