[映维网]苹果AR/VR专利提出光场摄像,支持iPhone、iPad、头显


(映维网 2020年04月03日)日前美国专利商标局公布了一份与全景光场摄像系统相关的苹果专利申请 , 而所述技术可用于iPhone , iPad和头显 。 相关专利:Apple Patent | Panoramic Light Field Capture, Processing, And Display
对于苹果在发明中构思的光场全景系统 , 手持移动设备的用户可以执行从不同位置捕捉场景图像的手势 。 系统同时可以捕获诸如位置和方向的附加信息 , 可以对图像和信息进行处理 , 从而确定包括位置和深度信息的元数据 。 另外 , 图像和元数据可以存储为光场全景图 。

[映维网]苹果AR/VR专利提出光场摄像,支持iPhone、iPad、头显
本文插图

光场全景图可以由渲染引擎进行处理 , 并渲染场景的不同3D视图 , 从而允许用户以六个自由度从不同的位置和角度探索场景 。 利用诸如移动设备或头显的渲染和浏览系统 , 用户可以看到场景对象的后面 , 放大或缩小场景 , 或查看场景的不同部分 。
在光场摄影中 , 光场相机可以捕捉场景中光线的颜色强度 , 以及光线在空间中传播的方向 。 这与传统相机形成对比 , 后者只记录光的颜色强度 。 一种光场相机会使用放置在图像传感器前面的微透镜阵列 。 多摄像头阵列则是另一种类型的光场相机 。
虚拟现实允许用户体验和/或与沉浸式人工环境交互 , 这样给用户一种仿佛置身于所述环境中的感觉 。 例如 , 诸如头显这样的虚拟现实系统可以向用户显示立体场景并创建深度幻觉 , 而计算机可以实时调整场景内容以提供用户在场景中移动的幻觉 。

[映维网]苹果AR/VR专利提出光场摄像,支持iPhone、iPad、头显
本文插图

当用户通过虚拟现实系统查看图像时 , 用户可能会因此感觉到自己是以第一人称的角度置身于场景之中 。 虚拟现实系统可用于为多个应用提供交互式用户体验 。
苹果的发明描述了用于捕获、处理和渲染光场全景图的方法和设备 。
在一个光场全景系统实施例中 , 用户手持包括摄像头(如智能手机或平板电脑)的移动设备 , 执行手势并在目标场景前移动视图camera , 从而在不同位置捕获场景的一组数字图像 。
苹果专利申请进一步指出 , 系统可以与图像一起捕获诸如来自运动传感器和位置传感器的位置和方向信息等附加信息 。 可以对捕获图像和信息进行处理并确定元数据 。 所述元数据包括图像相对于场景的相对camera位置 , 以及场景内容的深度和几何信息 。 图像和元数据可以统称为光场全景图 。

[映维网]苹果AR/VR专利提出光场摄像,支持iPhone、iPad、头显
本文插图

用户可以通过头显 , 智能手机或平板电脑等移动设备或计算系统来探索由光场全景图表示的捕获场景 。 渲染引擎可以处理场景的光场全景数据(图像和元数据) , 并渲染场景的不同3D视图 , 从而允许用户以六个自由度从不同的位置和角度探索场景 。
利用渲染和浏览系统 , 用户可以更改视觉camera位置和角度 , 从而查看场景对象的后面、放大或缩小场景或查看场景的不同部分 。
光场全景图允许用户以六个自由度探索场景 , 这意味着用户可以自由旋转走动 。 相比之下 , 典型的360度全景内容在渲染时只允许三个自由度 , 这意味着用户只能旋转头部 , 但不能像探索光场全景时那样自由走动 。
【[映维网]苹果AR/VR专利提出光场摄像,支持iPhone、iPad、头显】名为“Panoramic Light Field Capture, Processing, And Display”的专利申请最初在2019年Q3季度提交 , 并在今天由美国专利商标局公布 。 考虑到这只是一份专利申请 , 尚不清楚苹果是否会或将于何时商业化所述的发明技术 。


    推荐阅读