雷锋网比iPhone XR还厉害:苹果iPhone SE 2如何实现单摄虚化( 二 )


iPhone 11 Pro在深度图中显示出明显的边缘;iPhone SE2获得了事物的要点 。
雷锋网比iPhone XR还厉害:苹果iPhone SE 2如何实现单摄虚化
本文插图
如果用户更喜欢iPhone SE2的外观 , 则始终可以使用iPhone 11 Pro重新创建它 。 但是 , 用户无法在iPhone SE2上获得iPhone 11 Pro的独特分层 。
分层是Apple的另一个机器学习过程中发挥作用的地方 。
除了iPhone XR外 , Apple还引入了“ Portrait Effects Matte” API , 可以检测照片中的人物并创建非常细腻的模糊成相 。
雷锋网比iPhone XR还厉害:苹果iPhone SE 2如何实现单摄虚化
本文插图
只要前景中的物体清晰且聚焦 , 大多数用户都可以在背景模糊的情况下玩儿转摄影 。
没有什么可以阻止Apple让用户对所有事物进行深度照片拍摄 , 但是Apple宁愿设置“人像模式仅适合人”的情景 , 也不愿让深度效果不能达到预期而让用户失望 。 机器学习是否会达到不再需要多相机设备?
人类的大脑远强于机器这毋庸置疑 。 与全新的iPad Pro不同 , 人类的眼睛没有任何激光雷达可以为人们提供深度信息 。 相反 , 人类的大脑却可以从许多源头收集信息 。
最好的深度来源于人类每只眼睛的两个图像 , 人类大脑在图像之间“连接点”的差异越大 , 物体与人眼的距离就越远 。 这种双目方式类似于双摄像头iPhone的深度功能 。
猜测深度的另一种方法是通过运动 。 当人们走路时 , 远处物体的视觉移动速度比附近的物体慢 。
这类似于增强现实应用程序感测用户在世界中位置的方式 。 对于摄影师来说 , 这不是一个很好的解决方案 , 因为在拍摄照片之前要求某人在空中挥动手机几秒钟是很麻烦的 。
那么 , iPhone如何从单个(单眼)静止图像中找出深度?
可以想象一下一个用一只眼睛看世界的人 , 他过正常生活的时候会经历许多麻烦 。 例如 , 开车要花费更多的精力 。
正常视觉的人以其他线索来判断距离 , 例如已知对象的相对大小 。
雷锋网比iPhone XR还厉害:苹果iPhone SE 2如何实现单摄虚化
本文插图
【 图片来源:信息时报所有者:信息时报 】
在猜测深度时 , 单个图像可以有多种解决方案 。
归根结底 , 神经网络具有魔力 , 但它们受到与人类智能相同局限性的约束 。
在某些情况下 , 仅一张图像是不够的 。 机器学习模型可能会提出合理的深度图 , 但这并不意味着它可以反映现实 。
如果用户的目标是准确捕获场景 , 以最大程度地编辑纬度 , 则在这里需要双摄像头系统或其他传感器如激光雷达 。
机器学习会超越多相机手机吗?显然是不可以的 。
正如拿摄像机与人眼相比 , 从物种起源开始算起 , 人类用亿万年的时间进化出来的肉眼 , 目前来看眼睛的能力机器是无可替代的 。
【雷锋网比iPhone XR还厉害:苹果iPhone SE 2如何实现单摄虚化】因此 , 如果想要机器学习的速度赶超多相手机 , 那么至少需要学习几年甚至几十年的时间 。