用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

眾所周知,由於採用了能夠採集 3D 深度信息的結構光設計,蘋果為 iPhone X 添加了不少新的玩法,各種圍繞面部的識別方案也成為很多人關注的話題。除了最常見的人臉解鎖外,動態 Animoji 表情也衍生出很多鬼畜的表情和短視頻,就連蘋果自己也嘗試用這些頭像製作過幾期宣傳廣告,比如像這樣的:

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

在 iOS 12 裡,蘋果進一步增強了 Animoji 的識別範圍,這次連“吐舌頭”的動作都可以完美還原到定製頭像上了。

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

但 3D 結構光的潛力顯然遠不止這些,基於新的 ARkit 2.0,腦洞大開的開發者們又想出了一個新玩法——用雙眼來代替手指,直接“操作”iPhone。

名為 Matt Moss 的學生開發者最近在自己的 Twitter 上展示了一個測試視頻,從視頻中我們可以看到,iPhone X 屏幕中出現了一個光標,而這個光標的“移動”操作則是完全由眼球控制的,此外只要開發者眨一下眼睛,光標也會判定為是“點擊”,隨即便會進入到新的菜單頁面。

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

根據 Mashable 的報道稱,這個所謂的“眼球追蹤”功能是蘋果在 ARkit 2.0 中新加入的功能:“最初我只是想做個 Demo 來試試看這個功能的可操作性。”

但很顯然,配合 3D 結構光更為精準的識別方案,如今眼球追蹤的識別率遠比前幾年要出色得多,這也意味著現在手機攝像頭不僅能用來自拍,同時也能準確知道你的注意力在屏幕上的哪個位置。

但如果論起實用性,我想大部分人還是更願意用手指來戳屏幕。

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

之所以會這麼說,或許和三星 Galaxy 系列曾經“翻過的車”有關。早在 Galaxy S4 時代,三星就在手機中加入了一系列眼部和頭部控制的功能:如果手機檢測到你的視線離開屏幕,正在播放的視頻就會自動暫停,此外還可以根據你的頭部傾斜角度來滾動屏幕等。

這功能當時起初聽上去感覺還是挺酷炫的,但實際用起來可能就成了下面這個樣子:

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

所以,如果你真的打算靠“動動眼珠子”來取代雙手,我覺得還是儘早打消這個念頭吧。反而是對於行動不便的殘障人士來說,眼球追蹤技術更能展現出它應有的價值和意義。

用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

具體的案例微軟已經給出來了,如今的 Windows 10 系統中自帶了用眼球“操作”電腦的“Eye Control”特性,可以讓身體不便的人實現用眼睛來“打字”。

另外值得注意的是,蘋果在去年也收購了一家專注於 VR 頭盔和 AR 眼鏡視覺追蹤技術的德國企業 SensoMotoric Istruments,此舉被業內認為是蘋果正在為神秘的 AR 設備做技術積累。加上一系列手勢和眼球追蹤專利來看,說不定蘋果還真的打算將在未來的虛擬現實產品中,帶來一些新的玩法呢


分享到:


相關文章: