——华为P50 Pro与iPhone12 Pro Max谁走得更远? 多组实测以外的移动影像走向分析。
近期赴贡嘎雪山旅拍,途中带了P50 Pro和iPhone12 Pro Max,进一步感受了华为和苹果在计算摄影、计算光学方面的最新探索,也对比了两者的差别。2015年以来如火如荼的计算摄影,将手机推向了全时段全焦段全场景下的高可用水平。这个领域的两个主要推动者,华为和苹果,他们的旗舰机分别代表着计算摄影领域的最新进展和最高水平。所以我自己也很想知道,这两者在计算摄影方向的探索和实力,分别到达了哪一步。
先看一段视频:地球漫步重走经典-贡嘎雪山手机随拍。
尤其末尾,是日落过后、蓝调时间结束,夜幕已经开始降临的时候拍摄的。能看到暗黑、模糊、噪点、偏色吗?恐怕都没有,手机的拍照水平也好,移动影像、计算摄影的探索发展也好,就处在这个阶段。
华为P50 Pro
iPhone12 Pro Max
华为P50 Pro
华为P50 Pro
iPhone12 Pro Max
上面这两组对比,天空、水瀑、植物的色彩哪个更准确?第三个图的丝绢流水模式是哪个手机的功能?以不同曝光值多次成像并实时合成的同时,自动区分画面的运动部分和画面的静态部分,高速快门凝固流水飞溅的瞬间效果不因为多张合成而模糊,静态部分多张合成过程中像素自动对齐保障画面清晰度,与此同时实现蓝天白云高光不过曝、水瀑后面暗光区域不死黑,获得高光比下高动态范围。类似场景,微单、单反后期要在图像软件中进行高光拉回、暗区提亮等操作,才能获得这样的效果。一图汇聚计算摄影多重算力,这些是这组图片放在最前面的原因。专业影像系统要通过前期后期工作流才能呈现的最终效果,手机/移动影像现场直接马上一次给到用户,这是计算摄影的趋向之一,多合一。
华为 P50 Pro
iPhone12 Pro Max
上面这组,远处雪山的细节清晰度哪个更好?5X变焦。两部手机光学变焦基础上,都需要调动一段数码变焦,并基于多次成像采集更多图像信息,对齐、堆栈,同时以AI算法对细节、纹理再次进行补偿、增强、平滑过渡,而不止是以差值算法计算相邻像素的色彩信息的“补像素”。华为这幅图里还能看得到引入广角主摄辅助中焦副摄获得正确的暗部亮度水平的痕迹。这组对比比较凸显两家图像引擎的实际功力,计算摄影的水平高低。以AI进行画质增强,对镜头、图像传感器等损耗或采集不足的信息进行“光学追回”、“数字补偿”,力求真实还原人眼视觉现场,而不是PS出来未曾有过的图像,这是计算摄影的趋向之二,"追真"。
华为P50 Pro
iPhone12 Pro Max
上面这组,哪个视觉更为立体?现场即视感更贴近前者。视频、延时、照片拍摄过程中,会发现iPhone12 Pro Max几乎在所有场景下的HDR、整体提亮,都比华为P50 Pro更为强烈甚至暴力,毫无疑问这迎合了一部分习惯手机调图时喜欢过度HDR感觉、一切都清清楚楚的用户,但是这样一来就不那么真实、立体,而是比较平面了。拍摄现场的氛围是云向山顶压过来,光从云的缝隙中漏下来,空间上的立体感是相当强烈的。计算摄影曾经的取向是色彩过度饱和导致PS化,过度HDR导致平面化,但是现在的趋向是追求立体氛围,向远近、高低、深浅的肉眼实感靠拢。这些需要光线感应、场景识别、算法力度把握得恰到好处。这是趋向之三,立体还原。
华为P50 Pro
iPhone12 Pro Max
上面这组,哪一幅不仅更清晰,画面还更加干净细腻?9X长焦下的对比。以计算光学“追偿”数码变焦带来的图像损失,“恢复”清晰度,是计算光学的趋向之四。我把它称之为不同于光学变焦、数码变焦、混合变焦的“计算变焦”。9X下拍得的像素数和3.5X下是一样的,且画质不明显衰减,这不仅仅是像素数算法扩增的结果,更是图像引擎多重处理之后的结果。目前仅就华为而言,P50 Pro基于3.5X光学变焦的50X,与P40 Pro基于10X光学变焦的50X,几乎能够具备同样的清晰度,能做到这一点还是挺值得点赞的。一些AI图像软件、插件,现在也能够实现对低像素图片的扩增。但是手机计算摄影的好处在于,图像引擎可以根据光线等因素,决定一次拍摄几张照片来进行合成,以及其它摄像头是否需要介入辅助成像,等于有些问题在现场就解决了。
华为P50 Pro
iPhone12 Pro Max
上面这组,哪一幅色彩更准确?这是夕阳掠过树梢的时候,3X中焦对比。iPhone在这里不是HDR过渡,而是“失色”问题。P50 Pro的表现不仅和10通道多光谱传感器、广色域色彩调教有关,也和计算光学对像差的纠正、高频弱信号的细节纹理追偿、衍射现象的算法消除有关。这些综合下来,体现在官方数据是P50 Pro环境光谱分辨率比上一代有近50%的提升,平均色相准确度有20%左右的提升。不过P50 Pro双主摄引入黑白图像传感器作为“后盾”以后,亮度信息与色彩信息的平衡,如何对图像进行增益的同时不影响色彩意义上的画质,是一个有待观察的角度。不过无论如何,到了P50 Pro这一代,大部分时段、焦段、场景下华为的表现已经优于苹果,iPhone反倒在有些情况下需要带上色彩相对不准的帽子了。准确的色彩和更好的色深,是计算摄影的趋向之五。
华为P50 Pro
iPhone12 Pro Max
这是一组貌似简单实则困难的测试,氤氲雾气、空气中阳光散射形成的淡蓝色“烟雾”是对比的重点,用力过猛的计算摄影算法,可能会通过显著提高对比度来让画面更清晰,细节更突出,或者会减弱明暗对比追求HDR效果而让画面整体发灰发白。实拍对比过程中,两部手机都表现得比较恰当,iPhone12 Pro Max的对比、去雾力度更大一些,且画面色温色调比华为P50 Pro更暖一些。对比不失真、降噪不涂抹、锐化不沙化,这是计算摄影的趋向之六。
华为P50 Pro
iPhone12 Pro Max
上面这一组,哪个对焦更好、更清晰?星海、银河都已经不成问题的情况下,大部分夜景拍摄已经难不倒手机,但是弱光对焦尤其是手持iPhone拍摄过程中人如果有移动的话,对焦有时还是有些难度,有些情况下即使对焦准确,最终拍出来的画面还是会有一些模糊。夜景拍摄的画面中如果有人脸出现,人脸的清晰度iPhone也往往不如P50 Pro。低照度弱光、夜景拍摄的进一步改善,是计算摄影的趋向之七。
华为P50 Pro
iPhone12 Pro Max
P50 Pro
iPhone12 Pro Max
华为P50 Pro
iPhone12 Pro Max
华为P50 Pro
iPhone12 Pro Max
上面四组对比,整体观感哪个更好?看得出来iPhone12 Pro Max偏向于画面整体更亮,而P50 Pro更倾向于压制高光,画面有些区域看起来也更暗一些。在夜景、晨昏等复杂光线条件下,手机影像模块的硬件、调教、计算摄影水准都已经相当可以,反倒是白天阳光强烈的一些场景,如何有更准确的色彩、明暗表现,以及更纯净的画面,这是计算摄影技术进化的趋向之八。
整体而言,计算摄影体现在这一代手机,用户获得感最强、实感最明确的进步体现在这几个方面:中焦长焦变焦下的画面细节/清晰度提升,以真实准确为导向的色彩和色域/色深的提升,准确的曝光合成所产生的更为真实立体的层次感和空间感。尤其色彩方面,观感有类似显示器从8bit提升到10bit、色彩范围从百分之七八十提升到百分之九十以上的感觉。现在一些显示器的硬件有8bit FRC也就是8抖10以后达到10bit观感的。计算摄影通过多张合成、光学追偿、AI实感增强(不能理解为色彩渲染或者PS),对于动态范围、宽容度、色彩色深的提升,也能达到类似"8抖10"的效果,不同的是显示器的10bit是“抖”出来的,计算摄影的画质提升是图像传感器多次采集信息、智能算法对像素进行“混色猜色补色”的结果,也就是说图像引擎对图片进行处理之前以及处理过程中,本身就拥有比最终输出的那张图片多得多的原始信息。
实际上一些手机厂商已经对外宣称,个别CMOS也就是图像传感器最终成像能达到10bit水准,一些手机更是已经可以开始拍摄高码率、高动态范围的HDR视频(非手机拍照的HDR功能),一方面这是采用更大的图像传感器、更高的单像素采光面积、更优性能的换代CMOS的结果,另一方面是计算摄影、图像引擎综合水准提升的结果。不过总体来说视频里每帧画面的画质低于拍照,原因一是图像传感器的光电信号采样率低于照片,二是受存储、缓存、IPS、处理器的处理时间限制,视频无法像照片一样进行多重深度计算,所以视频拍摄方面的进步比拍照慢一些。不过随着手机SoC、ISP、图像引擎等硬件软件水准的持续倍速提高,视频尤其4K视频的画质未来两三年将会进一步有显著提升。
手机的计算摄影,不仅在于“后期”,算力、算法、智能、深度学习,也在于图像引擎能够智能判断拍摄场景的成像需要,指挥图像传感器进行多次、多档曝光,并指挥主摄、超广角、中焦长焦等不同的摄像头互相辅助、联合工作。这样做的好处是手机可以让图像传感器多次采集原始图像信息,多次曝光,不同的曝光强弱,在此基础上图像合成。包括让几个摄像头协同起来,互相补充光线信息,互相增强、矫正。
对单反、微单相机来说,目前算力的提升、图像处理速度的提升,只是着力于提升对焦能力、高速成像、高速缓存和存储能力。比如去年今年先后受到市场追捧的佳能R5、索尼A1、尼康Z9,动态场景下的人眼、鸟眼、赛车等目标识别能力和自动追焦水平大有提升。但是要体现为最终画质,还得通过Lightroom、Photoshop、Capture One、Final Cut、各种图片和视频后期处理软件,对各种RAW、Log文件进行编辑处理才能获得满意的效果,甚至必须经过繁复的后期才能还原拍摄现场的动态范围、光线色彩、影像氛围。
总体来说相机厂商在在计算摄影方面着力很少。HDR、曝光包围等非常有限的功能,实质上依然是一种“机械控制”、“简单叠加”。而且最主要的问题是,相机在现场往往只能拍一次,无法回去再进行多次补拍。所以相机尽可能趋向于多地采集更具“深度”的原始信息。包围曝光等功能,也均为一次性操作,且需要配合三脚架,不便于连续创作。这造成摄影师所拍摄的图片、视频,在较大程度上需要通过后期去重新调整。为了实现较高的动态范围、减少暗部噪点或者实现某种效果,解决大光比等场景拍摄所带来的成像问题,摄影师经常不得不拍摄大量照片,后期进行堆栈。这样的重复拍摄,往往耽误了现场时间,影响摄影师从不同角度更多更好的去捕捉光影变幻,影响到自由充分的创作。
超级夜景、超清模式、人像美化、场景识别、模拟大光圈、流光快门、HDR、延时摄影、全景模式、路人移除、智能挑选最美瞬间、慢动作智能插帧......2015年以来,几乎每一代新机发布,计算摄影都能抛出一个新的突破性的功能应用。如今计算摄影不再只是成像的补充、优化角色,而是成为具有完整体系、核心思想、系统框架、软硬联动的一大影像门派,有些技术甚至开始反向输出到微单、单反相机。小小的手机成像模块,有限的物理空间,浓缩无限的科技进步,将会让每一个人体验到移动影像未来的各种可能。
上述8个趋向以外,预计下一阶段计算摄影可能还将在这6个相关方面得到长足发展:
1.光学防抖与电子防抖的进一步结合,作为一项基础技术,为基于像素位移的超高分辨率成像、不同焦段均可实现超清图像拍摄、实施堆栈、实时HDR、超清视频、实现更高级别的动态追焦带来若干可能;
2.画幅意义上的图像超采而不是剪裁、跳采,结合实时HDR,进一步大幅提升视频画质;
3.像素结构意义上的色度信息采样向4:2:0、4:2:2迈进,结合图像引擎算法补色调色,实现数字意义上的类比4:4:4的效果靠拢;
4.在提高堆栈结构的图像传感器的快门速度、读取速度、大缓存速度的基础上,ISP/DSP/NPU/GPU/CPU/专用图像处理芯片/专用编解码芯片等协同形成高速SoC平台,结合图像引擎的处理优化能力,支持实现高码率、高帧率,全面夯实4K画质,局部向6K、8K等更高分辨率的画质体系上攻。
5.照片、视频的编码/压缩/播放,向高效率RAW、H.266/VVC、MEPG-5等迈进,类似Tico-RAW等在保持画质的情况下文件体量大幅缩减(二分之一甚至十分之一),大幅度节约存储、计算、带宽资源,大幅度提高读取、存储、传输、后期处理效率,也使得分辨率、画质的进一步上探成为可能。
6.如果连续光学变焦、新体制的图像传感器(有机/量子等)在手机端付诸实用,计算光学就更是如虎添翼了;尤其高分辨率下动态范围远高于传统传感器的新体制图像传感器能够量产使用的话,结合计算摄影技术、SoC算力的长足进步,一部手机就可以完成全时段全焦段全场景下的生产力级别的拍摄任务,不是不可能。
最后再来一组延时模式拍摄的短视频,看看这一代手机的画质观感如何吧。
,