搜狐新闻@iPhone 12最大短板补足,这项功能终于超越安卓!

【搜狐新闻@iPhone 12最大短板补足,这项功能终于超越安卓!】
相较从前 , iPhone 11 Pro的相机系统已经出现了较大的提升 , 首先在软件上加入了如Deep Fusion和夜景长曝光等功能 , 而在硬件上也首次升级至三摄 , 齐备了广角-超广角和长焦三枚摄像头 。
搜狐新闻@iPhone 12最大短板补足,这项功能终于超越安卓!
本文插图
影像系统的提升也为iPhone带来了更强的溢价能力 , 至少19年的iPhone 11 Pro系列 , 就要比只有双摄的iPhone XS系列贵上几百块 。 而根据最新的爆料显示 , 预计今年秋季推出的iPhone 12 Pro系列手机还要继续增强相机系统 , 不过要引入的第四枚摄像头并非常规意义的“拍照摄像头” , 而是一枚LiDAR激光雷达传感器 。
搜狐新闻@iPhone 12最大短板补足,这项功能终于超越安卓!
本文插图
相信关注苹果的朋友也都知道 , 这枚传感器已经出现在iPad Pro 2020款上 。 而纵观整个手机行业 , 基于ToF技术的传感器早已应用到各类产品之中 , 不过其他安卓手机更倾向于把ToF传感器称为“另一个摄像头” , 而不是归类为传感器 。
言归正传 , 如果按照过去的思路 , iPhone 12 Pro系列手机要是加入了LiDAR传感器 , 那么起售价很有机会继续提升 。 有关LiDAR传感器的原理和作用我们已经进行过科普 , 但或许消费者更关心的是 , 加入激光雷达传感器真的能让iPhone的使用体验有所提升吗?
苹果的“AR”差异化你感受到了吗?
其他手机厂商的相机堆料多数是为了让手机拍照变得更好 , 包括克服逆光环境、提升夜拍能力或让手机拍得更远等等 。 但苹果的想法显然其他厂商不一样 , 加入LiDAR传感器并不是为了让手机拍照变得更好 , 而是让iPhone的AR能力能够更进一步 。
这些年来苹果想尽办法提升移动终端的AR能力 , 早前主要是在芯片方面提升算力 , 让AR应用、游戏的载入速度和画面质量都有进一步的提升 。 而如今加入LiDAR激光雷达传感器 , 主要还是为了提升AR三维模型的生成速度和建模的精细度 , 简单来说就是新iPhone在使用AR应用的时候能够根据目标空间更精确地生成模型 , 而不会出现模型比例不当、覆盖空间不准等情况 。
搜狐新闻@iPhone 12最大短板补足,这项功能终于超越安卓!
本文插图
我们在iPad Pro 2020上见识到了LiDAR雷达的能力 , 在iPad Pro 2020上AR建模的生成时间要更快一些 , 模型的空间覆盖准确率也有所提升 , 这些都是在过往产品上所无法达到的 。
但尽管如此 , 实际上加入LiDAR激光雷达系统后设备的AR能力也并非十全十美 , iPad Pro 2020拥有如此强大的算力也还是出现了一些模型比例不当或者空间面积识别错误的情况 , 这也从侧面说明了AR应用目前来说还是娱乐属性更强一些 , 想要真正普及仍有很长的路要走 。
搜狐新闻@iPhone 12最大短板补足,这项功能终于超越安卓!
本文插图
(大概30厘米宽的空间怎么可能放得下中型书柜)
实际上这也是苹果力推AR所面临的困境 , 不管苹果官方把AR描绘得多么美好 , 但到消费者层面就只有一句“感知不强” 。 目前生活中需要用到AR功能的场景实在是少得可怜 , 苹果描绘的那些应用场景——家庭游戏、教学演示距离我们的日常生活实在太远 , 绝大多数的消费者都不会想到使用这些功能 。
其实AR功能也并非一无是处 , 至少和VR相比我们不用带上沉重而昂贵的头显 。 我们可以畅想一下 , 如果苹果可以把AR功能加入到一些更高频的使用场景中 , 例如拍照取景指导什么的 , 或许才能加速AR的普及 。
只不过要是想AR功能达到“如影随形”的程度 , 那么光凭一枚LiDAR传感器显然是不够的 。 但苹果还会继续在AR领域加大投入吗?连续投入三四年都不见明显效果 , AR功能还值得苹果继续投入吗?这都是未知之数 。