你有没有好奇过,为什么拍摄一张照片需要这么多摄像头呢?看似相同的摄像头之间

你有没有好奇过 , 为什么拍摄一张照片需要这么多摄像头呢?看似相同的摄像头之间 , 又有哪些区别呢?那就一起来了解下吧~
多摄像头强在哪里?
手机背后的摄像头们看似互相之间没有什么区别 , 但其实它们的本领各有不同 。
首先 , 手机需要有一个主摄像头 , 用来采集要拍摄的画面 。在这个画面清晰度是足够的 , 但受限于手机摄像头光学系统的大小 , 这个摄像头拍出的画面可能无法足够突出主体 , 色彩不够鲜艳 , 拍摄夜景时物体的轮廓也不够清晰 。此外 , 在拍摄更远的物体时 , 单一的摄像头还无法实现光学变焦 。
所以 , 大部分单摄像头手机会在你按下快门之前预先用不同的拍照模式 , 选取不同的焦点拍摄多张照片 , 在你按下快门后再将这些照片内的信息汇总 , 通过手机芯片高速的计算 , 合成出一张效果更佳的照片呈现给我们 。
单摄像头画面大多也是多张合成的
这种方法虽好 , 但是一个摄像头无论再怎么改变模式 , 它能获得的图像信息也是有限的 , 要想把照片拍得更好就要获得更多不同类型的图像信息 。
于是人们在主摄像头的基础上又添加了多个辅助摄像头 , 这样就可以在拍照时同时采集到更多的信息 。
>>>>多摄像头测距
我们人眼在观察物体时 , 往往被注视的物体最清晰 , 没有被注视的其他物体和背景相对模糊 。要想让拍摄出的照片达到和人眼一样的效果 , 我们需要一个大光圈 , 高进光量的大镜头 , 大概有半个手机那么大 , 和手机外包装盒一样厚 , 这显然是不现实的 。
既然不能在手机上安装足够大的镜头 , 那不如就用多个小镜头试试 。于是 , 人们在手机上安装了多个参数不同的小摄像头 。
这些摄像头的位置 , 参数都不同 , 因此拍摄出的画面有很大的差异 , 通过比较不同摄像头各自拍摄出来的照片的不同 , 手机就可以利用算法识别出画面中哪个物体离我们近 , 那个物体离我们远 。
知道了画面中各个物体的远近后 , 手机就可以利用设定的程序 , 将离我们近的主体尽可能清晰地显示 , 再将离我们远的背景部分刻意模糊掉 , 这样就达到了和人眼类似的效果 。
>>>>黑白摄像头
什么决定着手机拍照的清晰度呢?小伙伴们可能会异口同声地说——像素 。然而 , 这个答案并不准确 。
拍照的本质是记录光线中携带的信息 , 并再次用画面表现出来 。拍摄的画面要想清晰 , 不光要有足够多的像素 , 还要保证每个像素点都获得足够多的光线 , 也就是进光量要足够 。
然而受限于尺寸 , 手机芯片上每个像素点很小 , 能收集到的光普遍较少 , 即便像素再高也无法拍摄出足够清晰的画面 , 尤其在夜间 , 光线弱的时候 , 更是会出现噪点多 , 画面内物体边缘模糊的现象 , 这时候就需要黑白摄像头来弥补 。
对于彩色摄像头 , 需要在感光元件上同时采集红、绿、蓝三种光 。
这就意味着 , 对于一个5000万像素的摄像头来说 , 需要在本来就不大的感光芯片上分割出5000万个红色像素、5000万个蓝色像素、5000万个绿色像素 , 一共15000万个区域 , 每个区域分到的面积十分的少 , 这使得每个像素接收到的光也会很少 。
而黑白摄像头只需要区分光的明暗就好 , 不需要分别光的颜色 , 对于5000万像素的黑白摄像头 , 只需要在感光芯片上分割5000万个区域即可 , 平均每个像素可以接收光照的面积是彩色摄像头的3倍 , 能够更清晰地将画面呈现出来 。
黑白摄像头光学元件可采集光的面积是普通摄像头的3倍
当手机拥有黑白和彩色两种摄像头时 , 就可以同时拍到一张色彩鲜艳但有些许噪点的图像和一张更加清晰、噪点更少的黑白照片 。手机芯片会将两张照片中的信息汇总 , 通过算法合成出一张既清晰 , 色彩又绚丽的照片 , 两全其美 。
>>>>不同焦距的摄像头