手机拍照全靠猜 手机拍照时( 二 )


关于第一点,最好的例子是 Google Pixel 3 时引入的 Super Res Zoom(超分) —— 就是 Google 还在用单摄「吊打」其他厂商双摄长焦的那一代 。
在解决数字变焦对画面进行裁剪、重建进而造成细节丢失这个问题时,Google 相机团队首先想到的切入点也是上文提到的 CFA 滤镜 。不过相比于其他同行,Google 的工程师选择了 DRIZZLE —— 一种在天文摄影学中已经流行了数十年的常用拍摄技巧 。DRIZZLE 通过捕捉并合成多张拍摄角度略有变化的照片,来实现 2x 甚至 3x 的数字变焦效果,基本理念是将多张低分辨率的连拍照片直接合并对齐到更高分辨率的像素网格中 。具体的合并对齐流程如下:

手机拍照全靠猜 手机拍照时

文章插图
【手机拍照全靠猜 手机拍照时】通过平移的方法进行像素补全 | 图:Google
至于垂直整合硬件的能力,大家更是有目共睹了 。
从第二代 Google Pixel 开始,几乎每一代 Google Pixel 设备(a 系列以及 Pixel 5 除外)都会搭载专门用于图像算法处理的独立芯片,在 Google Pixel 2 上这枚芯片叫做 Pixel Visual Core,在 Pixel 4 上演变成为 Pixel Neural Core,最后来到今年的「大招」——Google Tensor 。
原本对传感器型号不怎么「敏感」的 Google Pixel,随着计算摄影需求与功能的不断增加,对独立图像处理芯片的依赖也越来越大,走上自研芯片这条路成为了必然(对下文要提到的 OPPO 来说也是如此)——毕竟在已经将 RAM 从 4GB 提升至 6GB 的前提下,Google Pixel 4 用户依然会时不时遭遇「算力不够杀后台来凑」的情况 。
手机拍照全靠猜 手机拍照时

文章插图
话说回来,既然算法实力和软硬件整合强如 Google Pixel 这样的异类,都依然没能解决文章开头提到的色彩还原问题 。近年来紧随其后的国内 Android 厂商还有哪些破题思路呢?
软件不够硬件来补这里便来到了另一个被更多人看作是「行业标杆」的厂商 —— Apple 了 。既然通过传感器采集到的色彩信息难以完整还原,我们不妨再给图像处理器准备一组现实世界中的实际数据作为色彩校准参考 。
而关于色彩的校准,其实早有专门的传感器负责采集现实中的色彩数据,早在 2017 年之时 Apple 就在 iPhone X 上的「刘海」矩阵里塞入一颗来自 AMS 的多光谱传感器 。这款定制版本的 6 通道多光谱传感器颇有为 iPhone 十周年献礼的意味,其采集的空间色彩数据被用于驱动 True Tone 原彩显示功能,可让手机根据环境光色温来动态调节屏幕显示 。
这个功能到今天依然有些新鲜,并且并非这类传感器的唯一用途——就像上面提到的那样,去年发布的 Apple TV 4K 就内置一个神奇的屏幕校色功能:将与 Apple TV 配对的 iPhone 正面紧贴电视屏幕,即可自动校准这块屏幕的内容显示颜色,从这个功能要求 iPhone 配有 Face ID 来看,iPhone 在这个过程中应该就是借着多光谱传感器化身成了一台简单的屏幕校色仪 。
手机拍照全靠猜 手机拍照时

文章插图
而后,在华为 P40、P50 Pro 这样的旗舰机型上,看到了利用多通道多光谱色温传感器辅助拍摄的用法,一方面可以作为环境色彩还原标准,提供白平衡参考,另一方面也顺带解决 RYYB 阵列带来的偏色问题 。
手机拍照全靠猜 手机拍照时

文章插图
OPPO 则在 Find X3 上推出了 10bit 的全链路色彩引擎,从屏幕硬件发力,优化色彩体验,来保证手机拍摄和输出的一体化观感 。
Find X5 如何处理色彩难题以计算摄影领域先驱 Google Pixel,以及华为、Apple 在软硬件协同投入上的经验为参考,OPPO 基于多年深耕影像领域的优势,在 Find X5 上也做了一次软硬件垂直整合 。
首先是自然色彩传感器的加入 。这次 OPPO 采用的自然色彩传感器,背后主要依靠一个 13 通道的光谱传感器,相当于增加了类似人眼结构的电子视网膜,从硬件层面捕捉精准的颜色,还原真实的环境光源信息,从影像处理的源头为色彩还原提供高精度数据作为参考 。
当然,多光谱传感器对于消费者也不是新鲜技术 。去年年底发布的华为 P50 Pocket 就能实现紫外线检测功能,也是通过 10 通道光谱传感器完成的 。这次 Find X5 系列的 13 通道多光谱传感器应该能把纯色色彩校准得更加准确,这是以往连 iPhone 都做不到的 。
手机拍照全靠猜 手机拍照时

文章插图