現在聽聞蘋果在研發后置3D傳感器,他的這項設計被網友猜測可能會使用在未來的iPad或者iPhone手機上。但是蘋果為什么要開始這個項目呢?它到底有何用意。
iPhoneX的前置TrueDepth傳感系統讓手機可實現臉部解鎖,還實現對面部表情的實時跟蹤和識別,生成Animojis。但顯然,這只是蘋果的第一步。如果把蘋果手機后置攝像頭也加入3D傳感系統,又會產生什么樣的效果呢?
升級iOS11系統后,蘋果手機可下載AR應用,這主要通過蘋果后置單目攝像頭實現。如果加入后置3D傳感系統可讓AR功能更為強大,例如使AR虛擬形象與真實環境中的物體,進行更多地交互。3D傳感系統可檢測深度信息,構建三維地圖,而現在,蘋果AR應用只能檢測到一個平面。同樣的,后置3D傳感系統還能為AR眼鏡奠定技術基礎。
不過,有意思的是,根據彭博社報道,蘋果正在研發后置3D傳感系統采用的技術路徑,跟前置的TrueDepth系統并不一樣。
此前曾報道,TrueDepth采用結構光技術,將30000個激光點圖案投射到用戶的臉上,并測量失真以生成用于認證的精確3D圖像。這種技術原本由以色列公司PrimeSense研發,后在2013年被蘋果收購。PrimeSense曾基于結構光技術為微軟研發Kinect傳感系統。
但據了解,蘋果正在研發的3D后置傳感系統將使用飛行時間法3D成像(TImeofFlight,ToF),這種方法更難以實現。其主要是通過激光掃面物體表面,傳感系統會測量激光到達物體和返回的時間。
ToF原理
在上述圖中,我們能看到,ToF關鍵是傳感器要測量物體的距離。
ToF多被應用到LIDAR(雷達)中,其主要的不足在于,它每次只能測量激光到達一個特定點的距離。所以,大部分雷達系統采用機械掃描裝置。雷達系統目前多被用于自動駕駛領域。但體型通常較大,會被放置在汽車的頂部。
顯而易見,這對手機并不適用。目前還有一種新型的雷達稱之為FlashLIDAR。它使用特殊的攝像頭,可測量對每個像素實現飛行時間測量。但FlashLIDAR還在研發中,同時也遇到了一些挑戰。因為每個像素需要得到自己的飛行時間測量,其中包括觸發電路、脈沖檢測電路。這便與TrueDepth產生了一定的沖突。
盡管FlashLIDAR的問題在逐步解決,但如傳感器的分辨率可能相當低,接近于VGA分辨率。
另外的問題是,提供適當的脈沖激光照明。光以每納秒約一英尺的速度傳播,而多數LIDAR和FlashLIDAR系統光脈沖時間非常短,只有1-2納秒。所以,在一定的時間內,生成足夠密度的光脈沖,被FlashLIDAR檢測到,也具有一定的挑戰。
蘋果已經確定在研發ToF,但是否最終會用到手機上,還不一定。結構光非常適合用于房間大小的空間內,這也是為什么Kinect和HoloLens也會使用結構光的方案。
對比兩種方案的話,ToF的精準度和穩定性較好,但結構光可以做的更小、功耗也小,分辨率相對高。
覺得,蘋果也許在嘗試不同的解決方案,融入到手機中必定有很大的挑戰,我們期待后置3D傳感器能讓AR功能更強大。