相信不少用户都知道,苹果正式推出了 iPhone 14 Pro 系列时,终于改变了相机的像素,上一次提升像素的,已经是 iPhone 6 升级到 iPhone 6s,由 800 万升级到 1200 万像素,却带来更差的表现,到底此次的升级,会为新一代 iPhone 带来什么改变呢?
首先简单讲解相机结构
相机一般的硬件,最主要影响品质的,就是光圈、CMOS、ISP 及镜片结构,当中的 CMOS 可以说是举足轻重的主要硬件,CMOS 感光元件主要的工作,就是采光,光对照片成像的品质有多重要,相信有在夜间拍摄过照片的你,必定会知道的。
而 CMOS 的面积越大,理论上代表着厂商可以有更多空间进行平衡,例如保持相同像素大小,增加像素点数量,或保持相同数量的像素,增大每一个像素的面积,增加进光量,就可以直接提升成像的表现。
为何 iPhone 6s 拍照质量会下降
了解后,就可以得知,iPhone 6 升级到 iPhone 6s 时,为何相机拍摄的质量会下跌,主要原因就是 iPhone 6 与 iPhone 6s 的 CMOS 大小同样是 1/3 寸,但由 800 万像素,增加到 1200 万像素,原理就像薄饼,你将两个相同的 14 寸薄饼切开,一个是 8 份,一个是 12 份,当然是 8 份的每份面积比 12 份都要大,感光能力当然就是 800 万像素更高。
为何要4800万像素,不直接采用1200万像素?
主要原因是,拍摄风景时,1200 万像素其实是不太足够的,原因是你不能将照片放得太大,限制会较多,但在阳光下拍摄,4800 万与 1200 万像素的差别却相当轻微,因此 4 合 1 的设计,可以让用户在不同的情况下,有更大的弹性去拍摄不同的照片,也可以利用 4800 万像素,达到 2 倍无损的数码变焦效果。(即是以 4800 万拍摄后再裁剪出 1200 万的 2 倍效果。)
相机的硬件配合
当然,相机的拍摄,除了 CMOS 外,其实还有其它影响进光量的原因,例如光圈的大小,也是可以直接影响照片的噪点,不过大光圈下,照片的锐利度及边缘的细节就会有所下降,更不要说它带来的对焦问题,需要多镜片配合,来尽可能让 CMOS 准确接收到光。
另外最影响拍摄的另一个硬件,就是相机的 ISP,作为核心,相机 ISP 可以分析场景,再作出各项设定,例如 ISO 数值、快门时间、补偿的数值等,更需要进行噪点去除的工作,理论上正如 F1 方程式赛车 ( CMOS ),你都需要一位 Max Verstappen 般的车手 ( 相机 ISP )才能发挥它的性能吧?