|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?


一个 , 两个 , 三个 , 四个…… 旗舰手机摄像头从 2016 年开始 , 以大约每年 1 个摄像头的数量在增长 , 有人调侃说麻将「八筒」将是所有智能手机摄像头的终极归宿 。
今年全新一代 iPhone 发布前 , 不少人推测 iPhone 12 Pro Max 会配备第四颗摄像头 , 没想到 iPhone 12 Pro 系列在宝贵的「第四颗摄像头」位置 , 放置了一颗 LiDAR(激光雷达) 。
不按「常理」出牌 , 一直是苹果的「常理」 。
LiDAR 是什么?
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ iPhone 12 Pro 系列手机摄像头模组右下方圆形黑色区域即为 LiDAR
LiDAR 的全称是 Light Detection And Ranging , 中文名激光雷达 , 是以发射激光束探测目标的位置、速度等特征量的雷达系统 , 由激光发射机、光学接收机、转台和信息处理系统等组成 , 可获得目标的距离、方位、高度、速度、姿态、甚至形状等参数 , 从而进行探测、跟踪和识别 。
抛开专业术语 , 通俗理解 iPhone 12 上的 LiDAR , 它就是一个能探测物体距离和记录深度信息的微型装置 , 和手机摄像头差不多大小 。
工作的时候 , LiDAR 可以实现两个重要功能 。
1. 测算物体离手机的大致距离
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 通过发射肉眼不可见的激光束来测算距离
2. 记录投射范围内事物的深度信息
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

目前苹果给出的 LiDAR 范围是最远五米 , 也就是说 , 搭载 LiDAR 的 iPhone 12 Pro 系列手机 , 理论上可以测算和记录 5 米范围左右的距离和深度信息 。
LiDAR 和 ToF 区别在哪里?
说到估算物体距离和记录深度信息 , 不少安卓厂商早在部分机型上搭载了 ToF(Time-of-Flight , 飞行时间)传感器来实现这两个功能 。
例如 P40 Pro 有一颗 3D 深感摄像头(ToF) , 可以深度感知物体深度信息 , 实现大片般的景深效果 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

目前部分手机厂商大多采用 iToF(间接飞行时间传感器) , 而 LiDAR 属于 dTof(直接飞行时间传感器) 。
iToF 和 LiDAR 虽说都是 ToF , 但区别不小 。
第一 , 发出的「信号」不同 。
iToF 发出的是经过正弦波调制 , 明暗强度呈规律变换的光信号 。 LiDAR 发出的是激光束 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ dToF 原理
第二 , 估算距离的原理不同 。
iToF 靠感知正弦波光信号的差异来「估算」其从发射到反射回来的距离 。 LiDAR 是激光直接测算距离 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ iToF 原理
第三 , 精度范围、测算速率和抗干扰能力不同 。
iToF 的信号很容易被干扰 , 测算精度随着距离变远而下降 , 测算也相对较慢 , 比较适合用于厘米范围内的测距 。
LiDAR 的激光束抗干扰能力强 , 理论上测算精度不随距离变远而下降 , 测算更快 , 更适合远距离测距 。
最后 , iToF 更易小型化 , dToF 集成小型化难度更高 , 所以两者有较为明显的商用场景差异 , iToF 大多数用在手机上 , dToF 比较常用在汽车和无人机等大型装置上 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 汽车雷达
LiDAR 比 iToF 快、准、远 , 但集成难度更大 , 成本更高 。 苹果能把 LiDAR 集成在 iPhone 12 摄像头模组里 , 想必是花了一番心思的 。
为什么苹果选 LiDAR?
或许 iPhone 有一天会变成四五六摄手机 , 但在被人讨论「iPhone 拍照掉队了吗」的紧要关头 , 选择把宝贵的「第四颗摄像头」位置给 LiDAR , 足以可见苹果对未来的布局多么重视 。
苹果究竟想干嘛?
iPad Pro 2020 的官方网页上 , 苹果直截了当给出了答案 , LiDAR 现阶段主要就是为 AR(Augmented Reality 增强现实)服务的 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

在手机摄影几乎到天花板的时刻 , 苹果选择了一条和其它厂商不一样的路 , 没有选择上高像素和多倍光学变焦 , 而是加了 LiDAR , 让用户记录「深度信息」 。
用户能记录深度信息的好处非常明显 , 我把它总结为「双向融合」 。
一个是现实虚拟化 , 也就是 AR , 可以用摄像系统和 LiDAR 把现实事物的各种信息记录下来 , 再虚拟展示在屏幕上 , 从任意角度近距离观察 , 也打破了时间和空间的限制 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 没有 iPhone 12 的深度信息 , 也就不可能使用 AR 观看虚拟 iPhone
另一个是虚拟现实化 , 也就是 VR , 可以给虚拟的事物增加现实维度的信息 , 让虚拟事物在网络里「活」出现实事物的特征 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 动态 emoji 可以看做简化版的 VR , 虚拟人物有了真实人物的面部深度信息数据
这两种融合都离不开深度信息 , 深度信息也是 AR 和 VR 打通的桥梁 , 比如老师用可以记录深度信息的 AR 设备自拍直播教学 , 学生戴上 VR 眼镜听课 , 每个学生看到的老师都是虚拟形象 , 但虚拟形象的表情和动作细节特征都是一样的 , 很难再单纯用 AR 或 VR 简单描述 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 电影《头号玩家》展现了现实和虚拟的融合 , 推荐配合本文「食用」
再来说说手机
手机对于人类社会来说是什么?
这个问题很难回答 。 往小了说 , 它不过就是一台便捷的通讯工具 , 往大了说 , 它对人类社会的影响可以说无比深远 。
回顾手机出现之后的人类历史 , 用户对信息处理交换的共性需求一直是去中心化 。
一开始用户的共性需求是提升信息交流效率 , 所以手机的核心功能是打电话发短信 。 信息交流的中心节点 —— 被线绑住的固定电话、邮件、传真、邮电等被彻底边缘化 , 如今只是一种特殊场景下的补充工具 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 被电话线拴住的中心
接下来用户的共性需求是打破信息不平衡 , 进一步去中心化 , 每个人都想要有自己的声音 , 所以手机的核心功能变成了社交 , 大量社交 app 异军突起 。
正是由于苹果的全触屏形态产品 iPhone , 在恰当的时机精准高效地解决了用户在第二阶段的共性需求痛点 , 苹果才能打败诺基亚 , 一跃成为市场综合第一名 。
现在 , 用户的共性需求会是什么呢?
用户需要进一步去中心化 , 不仅要发声 , 还要把自己的个体文明尽可能记录并传递下去 , 让自己的个体文明在人类文明史上留下记录 。
【|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?】
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ iPhone 广告片展示 iPhone 的生活记录功能
很久以前 , 芸芸众生是没有历史存在感的 , 更不能掌握记录自身的工具 。 手机的出现 , 让存储在服务器上的数据变成了「个人史书」 , 这些渺小如蝼蚁的「个人史书」又发挥着无与伦比的影响力 , 共同组成了一部人类「大史书」—— 人类社会共同的大数据库 , 个体不再是历史里可以直接忽略的「无名」 , 也不是可以大笔一挥一笔勾销的某某 , 而是在人类共同「大史书」里一个个有血有肉的鲜活存在 。
现在 , LiDAR 给了我们更高维度的「书写」能力 , 在声音、平面图像、行为习惯等维度之上 , 增加了深度信息 , 突破了平面限制 。
永生 , 从深度信息开始
对于普通用户而言 , 目前 LiDAR 带来的直观帮助还不是很明显 , 更多属于「有更好 , 没有也没多大影响」的程度 。
它带来的潜藏益处却是非常明显的 , 如果条件和相机 app 允许 , 每个人一生中经历的每个场景 , 每个瞬间 , 遇到的每个人 , 看过的每朵花 , 摸过的每件餐具 , 每张自拍 , 都可以被 LiDAR 记录下深度信息 , 只要时机和技术成熟 , 数据量足够大 , 再配合以声音、图像、行为习惯等数据 , 完全可以在服务器中创造出一个虚拟的世界和虚拟的自己 , 和真实的世界和真实的自己一模一样 , 甚至等待科技水平足够高的那天 , 可以在现实世界中造出一个自己 。
|iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
本文插图

▲ 如果《西部世界》里的机器人都有一个对应的真实人类 , 那么拿到真人的深度信息则是制作机器人的第一步
如果哪天科技更加发达 , 可以赋予这个虚拟的自己一套「人性的算法」 , 百年之后 , 有人想我们了 , 只需要进入虚拟世界 , 就能看到一个「活着」的我们 , 何尝不是做到了另一种形式的永生?


    推荐阅读