当前位置:恩施知识网 > 科技创新 > 正文

为什么苹果手机像素不高拍照却很好,为何iphone像素低拍照却好

对于高像素手机的追求,手机厂商可谓铆足了劲的追赶,特别是近2年,我们可以看到很多手机厂商都在宣传自家4800万像素、6400万像素甚至是一亿像素的手机。然而,苹果的iPhone却是一个例外,从iPhone 6S开始,苹果就一直沿用祖传的1200万像素,现在售价近万元iPhone 12系列依旧如此。这么多年iPhone像素一直没变,但是其综合拍照能力却处于第一梯队,这背后的原因到底是什么?
搞清楚 像素高不一定拍照就好
很多用户认为手机像素越高就越好,手机摄像头的像素固然对手机的成像有着

对于高像素手机的追求,手机厂商可谓铆足了劲的追赶,特别是近2年,我们可以看到很多手机厂商都在宣传自家4800万像素、6400万像素甚至是一亿像素的手机。然而,苹果的iPhone却是一个例外,从iPhone 6S开始,苹果就一直沿用祖传的1200万像素,现在售价近万元iPhone 12系列依旧如此。这么多年iPhone像素一直没变,但是其综合拍照能力却处于第一梯队,这背后的原因到底是什么?

搞清楚 像素高不一定拍照就好

很多用户认为手机像素越高就越好,手机摄像头的像素固然对手机的成像有着很大的影响,但要搞清楚的是,像素高并不意味着拍照就好。

像素是构成一张照片的最小单位。我们看到的图片其实都是由每一个像素点组成,而每一个单独的“色点”就是我们常说的像素。一张图片由1200万个色点组成,那么图片像素就是1200万。

单反相机的感光元件大于手机数倍 成像效果自然更强

成像效果并非取决于像素高低,感光元件的大小更加重要。胶片时代感官元件指的是底片,而发展到现在的智能手机年代,感光元件就是指镜头后面用来接收光线的一块“小板”。

成像画质的好坏取决于感光元件捕捉到光的多少来决定,感光元件越大,能捕捉到的光线就越多,传感器感光性能越好,就能够带来更细腻的画质。同时,更大的底,在单个像素面积相同的条件下能堆积更多的像素点。

成像效果并非取决于像素高低 感光元件的大小更为重要(图片来自Apple官网)

“底大一级压死人”,CMOS对于光线的敏感程度,更直接影响相机在暗光环境下的成像表现。当下厂商宣传的手机夜景成像能力,正是得益于大底传感器的加持,而不是由像素高低决定。

举个例子,iPhone 12 Pro Max虽然是1200万像素,苹果专门为其定制了一枚1/1.7英寸的大底传感器,其感光元件尺寸增大47%,像素尺寸增大至1.7 微米,低光拍摄效果更是提升高达87%。iPhone的像素虽然没变,但传感器等硬件却不断升级,这是其成像水平保持稳定在第一梯队的重要原因之一。

手机成像是一个系统性的工程 苹果资源整合能力强

像素高只能证明图像承载的信息多、细节丰富,但并不能代表照片质量一定就高。手机的成像质量,除了受像素影响外,还与手机镜头本身、传感器感光元件、图像信号处理器以及软件算法等有关。

恰巧的是,苹果供应链的整合能力是业界出了名的强,影像方面也毫不例外。首先,财大气粗的苹果,对于iPhone零部件相来都是独家定制,目前主流手机厂商的传感器供货商只有少数的几家,而索尼是目前全球最大的影像传感器供货商,苹果同样采用索尼的CMOS,但是其素质却更好,同时也没有任何一家厂商能拿到和iPhone同样的模组,毕竟苹果对于其供应链要求是相当严苛的。

其次,苹果iPhone在软件算法上的积累同样深厚,2017年iPhone X发布,A11仿生芯片也随之面世,之所以称其为“仿生”,是因为苹果在这款芯片上首次集成自研的Neural Engine神经网络引擎,其配合新型的ISP算法,iPhone X率先在业界实现了光照环境侦测等一系列拍照算法。

iPhone 12系列应用大量计算摄影功能 应对复杂场所拍摄(图片来自Apple官网)

之后,A系列仿生芯片不断更新换代,其神经网络引擎算法对于拍照的优化也不断增强。例如,iPhone 12系列的智能HDR3算法,会利用机器学习技术,智能地调节照片的白平衡、对比度、质感和饱和度,让画面看上去更自然。

全新的计算摄影功能,所有摄像头均支持夜间模式和处理速度更快的深度融合技术,应对复杂场景下的拍摄能力进一步增强,苹果能够同时将这些功能算法集于一款手机上,足见其深厚的影像技术功底。

iPhone 12 Pro Max相机得分(来源:DXOMARK)

另一方面,新的手机摄像头、感光元件和软件算法之间的协同,任何一家手机厂商都不敢保证能在短时间内完全吃透,它需要花时间去打磨,而苹果而言这也不是问题。苹果不仅有来自于全球各地的优秀工程师,而且每年只更新一代产品,影像团队有充足的时间去优化产品,相比于其他手机厂商一年发多款产品,苹果显然更有时间上的优势。

定制的镜头、传感器感光元件等硬件,配合影像技术上的深度调教,再加上通过收购吸纳全世界优秀的影像技术团队,最终打造出一套完整的iPhone影像系统。

写在最后

现在消费者选购一款拍照好的手机时,往往会掉进一个误区,那就是仅以像素高低来定手机的成像好坏。手机成像经过多年的技术更迭,发展到现在,早已不是唯手机像素去定胜负了。手机成像不仅离不开处理器、传感器等硬件的打磨,更离不开软件算法的优化。手机摄像头像素不断提高是行业的趋势,但手机拍照可以说是一整套系统的联动,缺一不可。

高像素、多摄像头的确是手机厂商都在宣传的卖点,因为手机的外观及参数上的变化是普通消费者最容易感知到的,数字的飙升更容易给手机打上高端的标签。但是,用户能感知到的是最终的结果,最终能够获得好的照片、好的视频就是好的体验,无论硬件还是软件都是需要花时间去打磨的。

(7626792)

为什么苹果手机像素不高拍照却很好,为何iphone像素低拍照却好

iPhone 11 1200万像素为何拍照更出色?怎么拍?三摄工作机制背后的软件方案处理器和算法才是背后的功臣

在悟空问答上的517个问题,只写接地气的科技内容,欢迎关注。

2K分辨率的手机屏幕,包含的像素点也不过区区400万不到,所以1200W像素是足够的。

在如今相机动不动三摄四摄的年代,当我们评判拍照的时候,首先还是要去想一下:到底三摄四摄是怎样协同工作的?这里我们就拿iPhone 11系列的镜头举例子,来看看成像的关键因素到底是什么。

三摄工作机制

首先目前旗舰手机来说,一般至少会标配三枚镜头:一枚是超广角镜头,用于拍摄风光照片;一枚是广角主摄镜头,用于多数场景的成像;一枚是长焦镜头,用户拍摄物体和人像使用,同时可以协助变焦。三枚镜头实际上是协同工作,共同来完成拍照任务的。

我们拿iPhone 11 Pro的三摄来举例子:当用户使用13mm超广角镜头拍摄的时候,其实26mm主摄和52mm长焦镜头也在工作,这样他们的画面可以使得中心画面的成像质量更好,拍下的照片也会保存26mm和52mm镜头采集的数据,使得照片有更大的后期空间。使用26mm拍照的时候也是一样,13mm镜头工作,画面可以弥补边缘画质,52mm也可以弥补中心画质。所以三摄是共同工作,相辅相成的。

那么总要有一个镜头说了算对吧,三枚镜头毕竟硬件素质不同,传感器不同,如何确保呢?实际上三枚镜头工作时,所有的测光和对焦参数都是以主摄像头为准的,这样就确保了三枚镜头成像的画质是相似的。这也是为什么主摄像头会配备更好的传感器,配备更好的对焦系统,也就当之无愧对得起“主摄”的称号了。

背后的软件方案

硬件只是成像的基础,实际上决定最后成像质量的,其实是最终的软件方案。

当光想非常好的环境下,成像是比较简单的,无非就是记录下三摄的镜头成像数据,做好拼接,软件微微调色,最多就是虚化的时候实现机器算法的抠图弥补,识别出物体之间的前后关系,把主物体提取出来,背景适当虚化掉。华为采用了一枚景深镜头来实现,iPhone这一次则是单纯使用的算法。

当光线比较阴暗的时候,也就是室内环境或者阴天,此时为了获得比较好的成像,就需要使用到多帧合成技术了,也就是三枚镜头同时成像,而且是一次多次成像,比如说iPhone 11 Pro每枚镜头会记录下三张,一共9张照片,做堆叠。这时候就需要有优秀的算法处理能力了,也就是不仅仅要分辨出物体关系,还要明白物体是什么?天是天,人是人,山是山,树是树,然后给每个物体匹配相应的颜色实现正常曝光。

当光线极度昏暗的时候,也就是我们常说的夜景成像。三摄镜头就不仅仅是多张记录,还会适当增加曝光时间来提升光线的接收数量。但是手机毕竟是手机,传感器很小,再怎样接收的光线也不多,怎么办呢?这个时候就真正需要用到机器学习了。也就是镜头采集的画面,可能只能够识别出轮廓,但是很多地方是没办法看清楚的,怎么办呢?那就只能“机器脑补”了。也就是机器自动来弥补出画面......是不是很牛X?

处理器和算法才是背后的功臣

想要完成这样的使命,光靠ISP图形处理模块是不够的,核心还是硬件和算法的进步。

拿硬件来说吧,iPhone 11搭载的A13芯片,在CPU上新增了两个“机器学习模块”,其实就是用来处理算法问题的,作为地表最强性能的A13芯片,处理能力可以达到万亿次每秒,一方面可以实现更高效的运算,另一方面则是减少用户的等待时间,可以按下快门就得到照片,提升用户体验。

至于算法层面,就是谷歌前几年一直在做的算法革命了。比如弥补脸部的算法,其实是实验室阶段学习了百万张人脸在这个光线环境下的状态得到的,这样一来即便没有抓取到清晰的像素,但是依旧可以依靠算法“脑补”出正确的影像和光线。看似简单的背后,都是长久以来算法工程师做出的努力。

为什么iPhone 11能够拍出更好的照片,这样看来,你觉得跟1200W像素关系大么?

为什么苹果手机像素不高拍照却很好,为何iphone像素低拍照却好

苹果手机像素不高,为啥拍出的照片真实又舒服呢?

现在买手机,我们除了看处理器和屏幕,还多了好几个要注意的维度,其中非常重要的一个就是影像,手机的影像能力已经成了我们选手机的必要参考点,如今市场上,5000W、一亿像素的手机已经稀松平常,而与之相比,iPhone像素一直保持1200W,像素低、镜头少,可为什么iPhone拍出来的照片看着格外真实和舒服呢,我们一起来看一下。

像素不重要,别被高像素忽悠

这个问题前面倒是提过很多次,确实,高像素确实在宣传的时候很唬人,但是实际成像效果,像素可能只占到三分之一,在好多年前很多手机就已经把像素提升到1亿,但是后来发现也没那么出色,现在主流旗舰手机,主摄像素基本都维持在5000W左右,这也证明了,一味追求高像素不是正道,并不能比肩单反。

而像iPhone手机,我们拿红米Note11Pro的一亿像素来对比iPhone13的1200W像素,结果是很明显的差距,实拍效果根本不在一个档次。在这里提醒一下各位消费者,与其看像素,不如看传感器,也就是摄影圈常说的“底”,底大一级压死人,底越大,进光量越大,拍照越细腻,观感也更强。

iPhone手机镜头不输安卓旗舰

可能iPhone在宣传时没有特意强调镜头,导致很多人都觉得iPhone手机虚有其表。其实iPhone手机硬件也很给力的,iPhone13Pro的三颗镜头,主摄采用iPhone历史最大的传感器。

长焦:F/2.8 光圈、广角:F/1.5 光圈、超广角:F/1.8 光圈和 120° 视角,并且支持传感器位移式光学防抖功能等,可以说,iPhone的黑科技也是玩的明明白白的,不要以为人家就不堆料,人家只是不做对比,毕竟没有什么可比的。

算法依旧属于顶尖水平

论拍照效果镜头规格算一个,软件算法同样不能忽视,iPhone的拍照效果为啥看起来很棒,很大一部分也是取决于iPhone的算法。

从我们角度看到的,iPhone拍出的照片更真实,而现在很多安卓机却疯狂的用后期调色、各种滤镜来吸引用户眼球,反而让很多人更加喜欢iPhone这种虽然色彩并不鲜艳,但是观感方面更接近肉眼的效果。

总的来说,iPhone手机拍照绝对算是数得着的,没有网上说的那么不堪,随便一款安卓机都能碾压那种,像素高低没有意义,传感器、算法软硬结合才是王道,iPhone手机毫无疑问都做得非常不错,这也是很多人喜欢iPhone出片的原因,当然,iPhone手机的价格是比较高的,大家如果预算紧张可以去转转看看二手,去年的iPhone12Pro原价还要七千大几,而95新的12Pro只需四千多,同样一年质保,还是非常划算的。

为什么苹果手机像素不高拍照却很好,为何iphone像素低拍照却好

为什么iphone像素低却很清楚

像素高不代表质量好,因为相片质量相对于人眼最重要的三个指标就是景深、色彩准确、和单个的像素大小,现今像素高只能说明质量上限高,但是色彩准确程度才是相片质量的下限,能准确反应色彩的CMOS才是优秀的,才能使iPhone在当今的高像素手机大行其道的情况以优秀的色彩反应准确程度下凸显而出
免责申明:以上内容属作者个人观点,版权归原作者所有,不代表恩施知识网立场!登载此文只为提供信息参考,并不用于任何商业目的。如有侵权或内容不符,请联系我们处理,谢谢合作!
当前文章地址:https://www.esly.wang/keji/1515.html 感谢你把文章分享给有需要的朋友!
上一篇:小米11pro怎么设置关机密码,小米12 pro更改锁屏密码 下一篇:微信收不到消息提示不用怀疑是这3个地方出问题了吧,微信突然接收不到任何消息

文章评论