快乐赚

苹果手机拍照好吗(iPhone手机相机功能的使用)

 人阅读 | 作者舞动奇迹 | 时间:2023-07-04 16:43

| hello~我是你们的der(得儿)一个爱好数码、喜欢谈论时事热点,挖掘性价比东西的宅,der友们点个关注叭!


近年来手机的性能与颜值日趋同质化,手机厂商们也转向影像技术方面发力,以至于手机拍照的好坏成为当下很多小伙伴购买新机较为关注的一个参数。

有意思的是,很多手机厂商都在宣传自家 4800W 像素、6400W 像素,甚至一亿像素的手机,而苹果 iPhone 却依旧坚持 1200W 不动摇,甚至其拍照能力还稳居第一梯队,经常被各手机厂商拿来对比,仿佛成为了手机拍照的“标杆”。

 

面对苹果 iPhone 的 1200W 像素,很多小伙伴就是觉得它拍照肉眼可见的比很多手机都好,但却说不上个所以然。

所以今天 der 就和大家聊聊,为什么苹果 iPhone 像素这么低,拍照却这么好?

 

拍照好的关键

很长一段时间里,很多小伙伴总觉得手机像素越高,拍照就越好,其实这并不一定。

因为高像素只能让照片承载着更多的信息,而且在细节方面也会清晰丰富,理论上能够拍得好,实际手机的成像质量除了受像素影响以外,还与手机镜头、传感器感光元件、图形处理器和软件算法等息息相关。

 

而现在大家所认为的拍照好,更多的是拍照的成像效果,也就是与手机摄像头的感光元件相关。一般我们拍的照片,是感光元件捕捉到的光所呈现出的影像,于是很多手机厂商通过增大的感光元件,并提升传感器的性能,让拍照成像效果更为细腻,甚至在夜晚光线不足的地方,也能拍出清晰的成像。

像苹果 iPhone 12 Pro Max,虽然它只有 1200W 像素,但却定制了一枚 1/1.8 英寸的传感器,其感光元件的大小,和手机背部的凸出的摄像头成正比,在性能越好、像素不变的情况下,它的拍照成像更稳定与细腻。

 

这时候有大聪明发话了,苹果 iPhone 14 Pro Max 不是升级成 4800W 像素摄像头了吗?那苹果拍照岂不是稳定细腻又清晰?

der 只能回答:是,但又不完全是。从原理上来看,4800W 像素带来的提升确实能给苹果 iPhone 承载更多的细节与信息,但苹果却用这颗 4800W 像素的摄像头用于裁切使用,也就是我们放大 2 倍拍的照片,其实就是通过 4800W 像素摄像头所截取的局部细节,清晰度有所提升但并不太明显。

所以苹果 iPhone 14 Pro Max 的像素提升,并没有带来更高清晰度提升,反倒是它那更大一级的 1/1.7 英寸大底,让成像效果更上一层。

 

苹果强大的供应链

当然啦,前面 der 提到过手机的成像质量还与手机镜头、传感器感光元件、图形处理器等息息相关,所以在硬件方面,苹果的供应链也是业界内出了名的强大。

众所周知苹果的设计理念是流畅式的用户体验,为了让让供应链的元配件更好的适配 iPhone,保证体验,财大气粗的苹果向来都是独家定制。当大家还是用索尼公版的传感器,苹果就给 iPhone 定制素质更高的传感器,并且还是“独享”那种,任何手机厂商都买不到 iPhone 同款的传感器模组,非常严苛。

 

另外,苹果 iPhone 背部摄像头的光学镜片,是由 5P 镜头以上专利几乎被包揽、全球镜头产业专利布局最完整的大立光提供,另一个能与其比肩的舜宇光学同样也是苹果 iPhone 光学镜片的供应链,拥有最好的摄像头的光学镜片。

 

深度调教的算法

苹果 iPhone 在硬件方面几乎都是“顶配”,自然不会落下软件算法上的结合。

早在乔布斯还在苹果深研 iMac 的时候,就曾收购与收纳全世界最好的影像技术团队做网络摄像头,后来摄像头项目被砍了以后,这个影像技术团队则一直给苹果 iPhone 提供影像拍摄的技术支持,经过多年来已经打造出一套自己的影像系统。

 

后来在 A11 仿生芯片上,苹果直接集成自研的神经网络引擎和新型 ISP 算法,在 iPhone X 上率先实现了光照环境侦测等一系列的拍照算法,再通过 AI 学习的方式,能够根据实际情况智能调节照片的白平衡、对比度等,让拍照成像看上去更为自然。

另外,苹果还在计算摄影领域开创了深度融合技术,面对复杂多样的拍摄场景,依旧能够拥有更快的处理速度完成拍照成像。在软硬结合方面,也就苹果拥有足够的技术与时间去打磨优化,以至于其在拍摄成像上比其它手机厂商要更好。

 

最后,手机拍照好不好,并不是手机像素可以决定的,这也是为什么一代又一代的安卓旗舰都拿苹果 1200W 像素来对比,因为人家在拍照成像技术方面,确实做得很好。

反观那些想要冲高端的各手机厂商,与其单纯的对像素,不如在影像技术方面坚持软硬结合的打磨优化。


文章标签:

本文链接:『转载请注明出处』