来源:科技日报
当下各大手机厂商都开始采用多摄像头的设计,而且随着手机的更新换代,摄像头数量也越来越多。
为什么拍摄一张照片需要这么多摄像头?看似相同的摄像头之间,又有哪些区别?
要想拍照好还要手机薄 增加摄像头数量是个办法
想要回答上面的问题,需要先了解手机是如何拍摄照片的。
首先,光线穿过手机的镜头进入内部的光学系统。光学系统其实是一系列的透镜,这些透镜能把从物体发出的光线汇聚到感光元件上。
感光元件再把接收到的光信号转化成电信号,并将这些电信号编码成手机芯片可以看懂的一串数字信号,芯片接收到这些数字信号后,会将它们存储,经过一系列处理把它们变成一串指令,告诉显示屏上的每个像素点该发出怎样的光。
屏幕上每个像素点发出的光汇聚在一起,就形成了一张完整的照片,呈现在我们眼前。
这个过程潜藏着一个很大的问题,那就是要想拍出一张完美的照片就要保证进入光学系统的光足够多、光学系统足够复杂,这就需要一套尽可能大的光学系统和尽可能大的感光芯片,这与手机越做越轻、越做越薄的理念是背道而驰的。
而且,当我们拍摄较远的物体时往往需要变焦的功能,过于薄的光学系统无法实现光学变焦,只能通过放大像素的方法将图像放大,这就会导致图像清晰度的下降。
那么怎样才能在不增加摄像头厚度的情况下继续提升手机的拍摄能力,让画面更清晰更明亮呢?增加摄像头数量就是一种不错的方法。
突出主体、实现变焦、更清晰 多摄像头各司其职
手机背后的摄像头们本领各有不同。
首先,手机需要有一个主摄像头,用来采集要拍摄的画面。主摄像头拍摄画面的清晰度是足够的,但拍出的画面可能无法足够突出主体,色彩不够鲜艳,拍摄夜景时物体的轮廓也不够清晰。此外,在拍摄更远的物体时,单一的摄像头也无法实现光学变焦。
于是人们在主摄像头的基础上又添加了多个辅助摄像头,这样就可以在拍照时同时采集到更多的信息。
这些摄像头的位置,参数都不同,拍摄出的画面有很大的差异,通过比较不同摄像头各自拍摄出来的照片,手机就可以利用算法识别出画面中哪个物体离我们近,哪个物体离我们远,然后利用设定的程序,将离我们近的物体尽可能清晰地显示,这样就达到了与人眼视物类似的效果。
什么决定着手机拍照的清晰度呢?
拍照的本质是记录光线中携带的信息,并再次用画面表现出来。因此,拍摄的画面要想清晰,不光要有足够多的像素点,还要保证每个像素点都获得足够多的光线,也就是进光量要足够,这就需要黑白摄像头来进行辅助。
对于彩色摄像头,需要在感光元件上同时采集红、绿、蓝3种光。这就意味着,对于一个5000万像素的摄像头来说,需要在本来就不大的感光芯片上分割出5000万个红色像素、5000万个绿色像素、5000万个蓝色像素,一共15000万个区域,每个区域分到的面积十分少,这使得每个像素接收到的光也会很少。
而黑白摄像头只需要区分光的明暗就好,对于5000万像素的黑白摄像头,只需要在感光芯片上分割5000万个区域即可,平均每个像素可以接收光照的面积是彩色摄像头的3倍,能够更清晰地将画面呈现出来。
于是,当手机拥有黑白和彩色两种摄像头时,就可以同时拍到一张色彩鲜艳但有些许噪点的图像和一张更加清晰、噪点更少的黑白照片。芯片会通过算法合成出一张既清晰,色彩又绚丽的照片。
解决了突出主体和进光量不足的问题,无法实现光学变焦也是手机摄像头的一大缺陷。
要想实现光学变焦,就需要使镜头伸缩,来改变光学系统的焦距。然而手机的光学系统被固定在一个很小的空间内,无法实现伸缩,自然无法光学变焦。
既然一个固定焦距的摄像头不行,那么多个具有不同焦距的摄像头是不是就能实现变焦了呢?
目前可实现变焦的手机一般是搭载两个或多个不同焦距的摄像头,拍摄时,不同焦距的摄像头同时进行拍摄,获得远近不同的图像信息,手机芯片将这些信息整合,最终合成出你想要放大的对应倍数的图像,并保证放大前后画面同样清晰,达到和光学变焦相同的效果。
简言之,多摄像头就好比多个观察员,它们各司其职,把物体的轮廓、颜色、远近等信息记录下来。而手机芯片则像一个画师,它利用摄像头收集来的信息再次把画面塑造在我们眼前。
(据微信公众号“数字北京科学中心”)