解析:為什麼説視線追蹤是 AR 技術的關鍵?

雷鋒網 於 06/09/2016 發表 收藏文章
試想一下,你在一個陌生的城市開車狂奔時,在汽車的擋風玻璃上掛載了一個屏幕,它指引穿梭於城市之間。這就是所謂 AR 技術,上面顯示的信息不僅包括導航地圖,還有提示司機注意環境中重要信息(比如有行人和自行車經過之類)的作用。這些信息地正確展示甚至關乎於生命安全。

這些信息不能遮擋住其他的物體,並且必須顯示足夠長的時間以便於司機閲讀理解,但是又不能過長。計算機系統必須實時做出決定,保證這些信息可讀又不喧賓奪主——警告司機「前方有自行車」的信息決不能擋住現實世界中騎自行車的人。如果屏幕上顯示的信息太多,會困擾司機,而在屏幕上展示的信息太少,又會讓人覺得這個功能過於雞肋,那麼問題來了,我們如何在這兩者之間找到一個平衡點?

這個問題的核心在於檢測出司機眼睛盯着哪兒看。只有這樣我們才能把他們關心的信息展示在的他們能分心注意的地方。接下來要展示的研究涉及到實時測量用户觀察的位置,以便於輔助決定放置 AR 信息的位置。隨着 AR 無聲地融入到我們生活中的方方面面,從駕駛到工作再到娛樂,在 AR 能為生活工作提供更關鍵和有意義的輔助之前,我們必須解決掉這一問題。

讓用户盯着的地方出現提示信息是最有效的方式。在導航的時候,用户可能看着一棟建築物,街道或者其他物體,系統將會知道如何隱藏其他的展示信息,以避免擾亂用户關注的主要信息。


那我們如何得知用户在盯着什麼看呢?人們視野的細微變化可以作為我們計算出他們注視地方的參考。通過對比這些數據與展示人們視角的攝像機,我們就可以得知這個人看到的景象有哪些以及 ta 正在注視的物體是什麼。

上世紀,眼球追蹤系統系統第一次被提出來。最開始這一項技術是被用在研究閲讀障礙上面。而最近實時視線追蹤被提出來,這會兒這項技術成本降低了,體積也變小了並且更容易實現了。

實現視線追蹤器可以被貼在屏幕上,或者整合進可穿戴眼鏡或者頭顯中去。結合攝像頭,投影以及計算機視覺算法,我們能計算出眼睛在顯示器上凝視的位置。

在檢測視線追蹤數據的時候,我們通常有兩種方法。第一種方法是「fixation(固定)」,這個方法通常是被用在用户停下視線之時。這種情況通常是在視線停留在一個有趣的地點時發生的,因為用户的注意力被吸引住了;第二種情況就是「saccade(掃視)」,為了確定凝視對象,眼睛將會掃視現場中的物體。基本上,我們的眼睛從一個地方快速掃視到另一個地方,從同一場景下的不同部分採集了多條信息。我們的大腦將這些固定(fixation)景象的信息拼湊在一起,以在我們大腦中形成虛擬影像。


一般情況下,AR 內容是被固定在現實世界中物體或者具體地點之上的。比如,包含街道姓名的標籤就應該在那條街道某處。理想情況下,我們希望 AR 標籤儘可能地與它所代指的實物之間足夠近。但我們也必須注意不要讓多個 AR 標籤重疊在一起,讓信息變得不可讀。合理安放 AR 標籤的方法不止一種。我們在探索的就是其中的一個法子,計算出人們凝視的實景,僅在該地點上展示 AR 標籤。

想象這樣一個場景,在雜貨店裏用户使用移動應用挑選低卡路里的燕麥片。在那種 AR 應用中,每一種燕麥片都有與之相關聯的卡路里信息。這種情況下,用户無需拿起每一盒燕麥片查看其營養表的內容,只需拿着手機對着某一款燕麥片照一照,就能得出相關信息了。但雜貨店裏燕麥片貨架所在的走廊肯定十分擁擠。沒有空間展示 AR 標籤,那麼所有燕麥片的營養成分表肯定無法展示。更沒辦法確定用户感興趣燕麥片的卡路里成分表。

如果我們能追蹤 ta 的視線,那麼我們能檢測出用户在盯着哪一盒特定的燕麥片,然後我們把那一盒確定的燕麥片的營養成分表展示給用户看即可。當 ta 目光移動到下一盒之時,我們再展示下一盒的信息。ta 的視野中不會出現雜亂的信息,但當他需要其他的信息之時,我們早就準備好了,可以隨時展示出來。

對於 AR 研究而言,這才是讓人激動的研發方向。我們在移動設備上整合計算機畫面與現實景象的能力正在發展之中。這種開發功能前景無限,它能拓展人類與周圍環境互動,從環境中學習以及娛樂的能力。

本文編譯自 weforum,轉載請務必註明來源。


資料來源:雷鋒網
作者/編輯:糖直銷-Orz

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→