對於混合實境(Mixed Reality,MR)三項期許:「從屏看穿」、「情境感知」與「智能物件」

      去年底第一次玩到Meta Quest 3體驗頭盔式的混合實境(Mixed Reality,MR),就對那種「雙腳跨在安全邊界兩端,螢幕中一下出現真實世界,一下又展現虛擬世界」的樣子感到驚艷,我還刻意地讓頭移來移去,看看畫面的反應有多即時!接著Apple Vision Pro也登場,強調「空間運算」(Spatial Computing),我的解讀,還是以混合實境來看。

      以往玩過的MR,主要利用平板,有MAKAR、Jigspace與COSPACES,而現在帶著頭盔,透過鏡頭拍攝實境展現於屏中,又有什麼期待與想望呢?先整理兩家的開發者網站裡提到的功能概念:
Meta Quest 3:Passthrough(直通、看穿)、Scene Understanding(場景理解)、Spatial Anchors(現實空間中錨定虛擬物件)。
Apple Vision Pro訴求A spectrum of immersion(沉浸式體驗光譜),包含:Windows(視窗)、Volumes (App有3D深度)、Spaces(分享的多空間)。

attachments/202403/0588400979.jpg attachments/202403/1409993793.jpg

      綜合起來,加上相關科技組合,我對這樣混合實境~原元宇宙流暢交融,有三個期許,也是自己未來想著力研究的方向:

※「從屏看穿」
硬體配備了鏡頭與感測器,可以從屏中看到眼前現場,再以應用軟體疊加資訊,就可以適時展現兼具AR、VR的應用,我們常說「沉浸式體驗」,現在本身在場的實境,現在可以創造出「再沉浸」的機會。
這樣「從屏中看到眼前現場」的樣態,某種程度增加了「安全、放心」:戴著頭盔還是看得見大家,走動也清楚現場環境。我上次戴頭盔查手機上的簡訊回應,再輸入頭盔裡的視窗,感覺很流暢方便呢!

      軟硬體有了這樣的「看穿力」,我開始期待「情境感知」與「智能物件」:

※「情境感知」
我常說「實境即為寶」:獨一無二的真實現場,從教室、圖書館到各種資源中心,現場的布置規劃就很豐富,從AR、QRCode的應用疊加數位資訊,現在帶著MR頭盔,可創造另一番景象。
實體現場包含空間動線擺設,也還有像平板、大屏的數位螢幕,這些都能讓當事人、在場即時參與互動(包含遠距同步互動),環境裡或在場人還能添加各式感測器,即時創造現有環境當下的最豐富學習支持,當然,使用者的手勢姿勢含語音互動,也有完整的行為互動(任務、思考)數據紀錄。

※「智能物件」
這是依教學需要,可移動、自由擺放的實、虛物件,實體物品、海報、卡牌與書本等,在MR中添加也賦予數位互動表現,虛擬物件,從現有工具模型匯入,或者遠距協作支持、AIGC動態生成皆可期。
物件(O)也和環境(E)、參與者(P)之間發生互動,而且,這樣的O、E、P還可有實體、虛擬兩類,相信玩起來就更精采了!
      目前我玩了Figmin,得以印證上述的想法,看到Jigspace也納在Apple Vision Pro中,我對於Authoring Tool如MAKAR,則期待可以創新「戴頭盔走在空間中,既能體驗,也能即時創作、造境」等功能,開心開心!

      這篇也值得參考:Charting the Future of Virtual Reality with Meta Quest 3

標籤: VR AR XR MAKAR COSPACES Jigspace
評論: 0 | 引用: 0 | 閱讀: 214