【万字长文,解释你在视频制作时会用到的知识和术语,以及在器材选择时应该注意的问题,有点长,可以先收藏下来,慢慢看】
不可置疑的是,这是一个视频的时代。
不论是相机还是手机厂商,每次发布会也会用很长的篇幅来解释他们产品的视频能力。
也很有多朋友为了更好的视频质量,不再满足于手机拍摄,开始选择单反或者微单开始自己视频的创作。
选购肯定也会遇到何种乱七八糟的参数,什么10bit ,什么422,super35,这是都是什么,又有什么作用?
今天我们就来认真地讨论一下这些东西。
4K即正义?分辨率当你在B站看小姐姐跳舞的时候,有时候可能会看到这个标志【4k超清】。
这也许是大家最熟悉的一个的参数——分辨率,不论是视频也好,还是显示器或者电视机都会用到这个,很简单,也很容易理解,分辨率越高,视频画质越好。
通常上,还会用这样的一张图,来解释不同视频分辨率的效果。我们也会把这个分辨率称为『输出分辨率』。
有聪明的小朋友要问了,我的手机或者显示器不过是1080P的,那么还有必要搞4K么?
即使最终都是输出为1080P的,拍摄的素材为4K,会包含更多的色彩信息,感官上会感觉更加的清晰,色彩更加丰富(这个过程就是超采,下文会详细解释),而且也方便你进行画面的裁剪或者稳定。
拍摄8K同理,即使最终输出为4K的视频,也会获得更好的画面,但是问题就在于能够拍摄8K的设备普遍不便宜,对于存储和处理的要求会更高。除了相机之外,你还得更新电脑,买更贵的显卡和更大的硬盘才行。
所以目前来讲,4k无疑更具有实用性,而且几乎每一台手机,哪怕是入门级别的相机,也都开始普及4K视频了。
注:
4K分辨率其实是一个统称,画面横向像素在4000个左右,纵向在2000个像素左右的,都可以称之为4k分辨率,不同的设备和场景下,所以就有了不同的4k分辨率。
最为常见的,是我们日常的网络视频以及很多显示器的比例,16:9,分辨率为3840 × 2160,手机相机也通常也以这个分辨率捕获素材。
当然,还有其他规格的4k分辨率,可参考下表:
部分相机也能拍摄DCI-4K的视频,比如松下的GH5s,以及S1H和S5。
为什么拍视频的时候,画面有变化?裁切与超采现在请你拿出你的手机,从拍照模式切换到录像模式,你会发现一个有趣的现象,画面的视角好像发生了变化。
为什么呢?
其实很好理解,拍摄4K视频,分辨率为3840 × 2160,像素不过800万左右,但是问题现在手机像素通常都在1200万像素之上,相机呢,普遍的像素值在2000万左右。
那多出来的这些像素,怎么办?
第一种解法就是,多出来就多出来呗,不用就行,于是就有了裁切这种方式,拍摄视频的时候,我只使用中间那部分需要的像素就够了。
缺点显而易见,就是本来能够拍摄的到视角变小了。
比如裁切系数为1.7倍,你使用一只24mm的广角镜头,拍摄出来的画面相当于40mm镜头拍的,丧失了广角端。
顺便也提醒大家一点,厂家往往很鸡贼,会把这个裁切系数用很小很小的字体写在备注里。
既然集中使用中间的像素会丧失视角,那么我尽量使用整个传感器呗。
于是『跳采』这种方式出现。简单来说,就是每间隔几个像素记录一个像素点的信息,其它像素的信息就不要了,如图所示。
很棒,解决了视角裁切的问题,但是缺点也很明显,舍弃了一部分像素的信息,不论是画质上还是颜色上,都会有所欠缺。
有没有更好的解法,有,就是超采。
在理解超采之前,得先理解传感器是如何记录颜色的。
实际上,像素点是不会记录颜色信息的,他只能记录光的强度,那么如果还原真实世界的色彩呢?
不得不提『拜尔滤镜』了。在像素上放上滤色片,然后记录不同颜色的滤色片对光的过滤效果,就可以得到颜色信息。
具体的光学知识可以参考之前的这个回答。
zhihu/answer/1721715927
但是像素不是胶片的感光剂,摞三个滤色片在上边,也不能记录色彩信息,于是拜尔想了一个办法,把RGB滤色器按照一定的方式排列在相邻像素上,这样就可以根据周边的颜色数值,来算出一个『颜色』。
既然是『算出来』,那么就不是真实的。
但是不可否认的是,只要我输入的条件够多,结果应该更加准确,接近真实。
超采就是这么一个类似的过程——
采集传感器上所有像素的信息,然后根据周边像素的信息算出来一个数值,然后记录。
为了便于理解超采,我们举一个不太严谨的例子,假如现在有一个3200万像素的相机,需要拍摄4K视频。也就是需要将四个像素变为一个像素。
假设四个像素的情况如图所示:
跳采,选择其中一个颜色直接记录,比如1中的红色;
超采,就是根据周边的的像素,来计算出一个颜色,然后作为记录。无疑,这种方式可以获得更准确的颜色,更加锐利清晰的画面。
看起来很棒了,超采就没有什么问题了嘛?
有。
由于超采需要计算,而计算是需要一定的时间,就会导致果冻效应更加明显。
你在车上拍的电线杆子,也就会更歪一点了。
注:
即使具有超采功能的相机,不是所有的视频规格都有超采,不同的分辨率和帧率下的设定会不同。
比如索尼的大部分相机,4k视频是从6K分辨率超采而来,但是1080P的规格不是;
超采不一定会用到整个传感器,即使是超采,也会有画面裁切(但是这个比例通常很小),只要采集的像素比最终输出的像素多,就可以称之为超采。
为什么是23.98?关于帧率戈达尔说:
电影是每秒24格的真理。
因为视觉暂留,一秒24帧的画面,看起来流畅而且自然。
为了拍摄电影感的视频,你把相机的帧率调整为24帧,然后兴冲冲的拍了一段视频,但是当你把视频导入到电脑上,右键属性的时候,或者把素材放到剪辑软件中,会发现,视频的帧率是23.98。
说好的24p,怎么还差我0.02,剪辑个视频都有中间商赚差价吗?
实际上,23.98也是个近似值,准确的数值应该是23.976,为什么是这么一个奇葩的数字?
鲁(niu)迅(dun)曾经说过——
一切看起来不合理的设定背后,都是历史遗留问题。
美国的电源频率是60Hz,所以当年电视诞生后,电视的场频也是60Hz。
当时的电视采用的是隔行扫描,也就是一秒钟需要记录30张画面,也就是30fps。
但是后来彩色电视诞生,需要传输和记录色度信息,彩色副载波与亮度信号和音频载波之间的相互干扰。
工程师为了解决这个问题,把频率下降千分之一,场频变为59.94,同理,帧率就是59.94✖️1/2=29.97。
电影的帧率也下降千分之一,24/1.001=23.976,看,这个神奇的数字出现了。
更多详细内容,可以参考zhuanlan.zhihu/p/66319869这篇文章。
当人们想用电视看电影的时候,问题就出现了,电视是29.97,电影是23.976,这帧率不一样,还怎么看?
也就是说电影画面每四帧要塞到电视的五帧里,怎么塞?
于是 就有了3:2pulldown的技术。
还记得之前说的隔行扫描吗?
每个画面经过隔行之后,会产生两个画面,然后按照2323这样的方式排列,最后就可以把四帧的画面塞到五帧中。
虽然说已经是数字时代了,但是还有一些地区和在使用模拟信号的电视或者广播,所以23.976这样的帧率的兼容性会更好的一点。
其实还有一个最为主要的原因,目前的消费领域的拍摄设备,基本上都是23.98(23.976),真24p的相机或者录像机,往往比较贵。不过就相差这么一点,看不出来什么的。
视频的制式根据各国使用的电源频率不同,分为PAL制和NTSC制。
前者有中国和德国为代表,电源频率为50Hz,视频的帧率就是25P,50P或者100P,
后者以美国和日本为代表,电源频率为60Hz,视频的帧率就是30P,60P或者120P。
这就是有的小朋友经常会问到的一个问题,为什么我的相机宣传可以拍摄120帧的视频,为什么菜单设置里只有100P,切换一下制式就好了。
这是必须得吐槽一下,索尼的相机,切换个制式还得格式化,搞不懂为什么会有这么奇葩的设定。
有小朋友又要问了,那我使用N制还是P制?其实现在的视频大多是网络使用,不论是N制还是P制,关系不大,选哪个都行,你开心就好,如果你有电视或者广播播放的需求,那还是选择对应的国家,以免后期的麻烦。
如果你有多个设备,建议还是将拍摄制式统一。
另外,还有一点得注意,如果你发现拍摄的场景有照明灯光,画面中出现闪烁的情况,建议还是调节成当地的制式,帧率和电源频率匹配时,就可以解决这个问题。
我们经常说道的慢动作拍摄,其实是一秒钟拍摄更多的画面,比如120帧,然后播放的时候按照正常的帧率播放(24帧),这样本来1s的画面,需要5秒的时间播放,自然就慢了。
这个过程也就是我们所说的升格。
既然有升格,那么就有降格,相反的,一秒钟记录更少的画面,然后以正常的速度播放,就会有视频加快的感觉,最常见的降格,其实是延时摄影。
但是更高的帧率和分辨率会导致更大的数据量,在很多基础的相机上,高帧率和高分辨是不可兼得的,需要作出取舍。
这也是为什么目前大家对4k/60这个参数情有独钟的原因,在画质和帧率上达到了一个不错的平衡。
为什么我的4K这么差 ,码率一个显而易见的例子,手机拍摄的4k画面,有时候还不如相机拍摄的1080P。
按理说,4k的画面要比1080P好多很多啊,为什么?
决定画质的,除了分斌率,还有码率。
这也就是一些国内的视频网站,所谓的超高清的视频的画面看起来并不那么高清,除了分辨率虚标之外(720P就是超清,1080P就是蓝光,那4K不得起飞了?)
视频的码率也惨不忍睹(大多数的视频码率在2M-4M之间)。
B站的码率其实都算良心的了。
所谓码率,就是一秒钟记录的数据量,数据量越多,画质越好。码率决定了你文件的大小。
通常手机这种设备的码率厂家已经给你写死了,没有办法调节。
问题来了。
对于相机这类设备来说,是否需要将码率设为最高。
答案也不一定,一切都要按需出发。
因为在一定的分辨率下,不断提高码率所带来的画面提升已经肉眼不可见了,文件体积却在不断地增大。
一个比较实用的做法是,使用你手头的机器,使用不同的码率拍摄一段看起来复杂的画面。
然后正常的进行后期调色,找到一个你分辨不出来画面差异的码率,然后用它就行了。
H.265 MP4.编码与封装找一个盒子装起来:封装格式先来说格式封装,这个是大家最常见到的东西,也就是你文件的后缀名。
常见的格式,有MP4,和MOV,FLV等。
本质上你可以把格式理解为一个容器,可以装进去所有关于视频内容,除了帧画面,还有音频甚至字幕。
比如你在网上下载电影来看,很多都是MKV这种格式,可以塞进去多轨音频甚至多轨字幕,这也就是为什么有的电影能够切换声道的原因。
存储的方式,编码下来说说编码,编码就是记录画面的方式。
有两种记录的方式,一个是帧内编码,比如苹果的PRORES。
这种很好理解,就是直接记录每一帧画面,后期电脑直接按顺序播放这些画面就ok了。
优点就是几乎不需要什么算力,播放起来很流畅,缺点就是会占用更大的空间。
这也就是为什么同样的配置的电脑,往往使用Final cut Pro剪辑要比Adobe Primier 流畅很多的原因,正是因为Final Cut Pro 使用PRORES的编码方式,但本质上,这是一种『以空间换速度』的做法。
很多小伙伴们用Final Cut剪视频,剪到一半,突然发现硬盘空间没了,就是这个原因。
不过可以在剪辑完成后删除这类优化代理渲染文件,来节省空间,不过如果你有大量的素材,那建议还是搞个外置的大容量SSD或者直接连接Nas剪辑,体验会更好。
PRORES是一种中间编码,仅用于中间的视频编辑过程,也就是说,最后视频输出还得靠H.264。
H.264是一种帧间编码。
简单来说,他只记录每帧之间的变化值,然后解码器根据变化来『算出』中间的画面。
比如我拍摄一个采访视频,嘉宾基本上坐着不动,背景啥的都没有变化,只记录变化的部分,最大的好处文件体积就会小很多,但是解码播放时,却增加了算力的要求。
H.264应用十分广泛,几乎应用在所有的设备和产品上。
他的下一代是H.265,更好的体积压缩,更好的画质。
但是我们目前的播放和处理设备对于H.265的支持都不太好,也就是说,你直接用当前的电脑剪辑H265编码的视频,会卡的惨不忍睹。
卡了怎么办?除了换电脑之外,买显卡之外,还可以通过剪辑软件生成代理素材来剪辑。
是一种『以时间换性能的做法』。
10bit 422—色深与色度采样10bit 422, 8Bit 420这是我们在看相机参数时,经常会看到的一串数值。
他们到底说的是啥?
越深越好,色深先说这个10bit ,色深。
如果你经常使用Photoshop,或者一些设计软件。会经常看到#FFB6C1这样的数值,他们称之为色值。
通常由6位十六进制字符代表,红绿蓝 每种颜色占用两位。
也就是说,每一种颜色有16*16种变化,这个数值正好的2的8次方,所以我们把这种颜色称为8位色深,也就是8bit。
很容易计算,8bit色深的颜色一共有256×256×256=16,777,216 种颜色,也就是我们经常说的1600万色。
虽然看起来也不少了,但是在实际的拍摄体验中,尤其是渐变的场景,后期稍微拉一下,就会遇到色彩断层的问题。
而10bit,最终色彩总量可以达到10亿色,由于颜色增多,色彩的过渡会更加的自然,哪怕最终输出的还是8bit的画面,依旧可以获得很不错的画面。
谁还不是为了省钱啊:色度采样为了数字化的记录颜色,人们搞出来了『色彩空间』这样一个模型。
不同的色彩空间有着不同的特点,应用于不同的领域:
我们最为熟悉的RGB,是一种加法色,应用最为广泛,设备显示,图像处理;
CMYK,是一种减法色,通常用印刷行业;
RGB发光屏幕的加色模式,依赖于光线,CMYK是一种颜色反光的印刷减色模式,依赖于颜料。有所依赖就会有所不足。所以Lab模式诞生,理论上,Lab可以包含所有色彩。
但是在电视或者数码摄影系统中,我们通常上使用Y'CBCR这种色彩模式。
实际上,Y'CBCR不是一种绝对色彩空间,而是YUV压缩和偏移的版本,但是由于Y'CBCR的应用实在是太广泛了,所有大多时候,我们口中所说YUV指的就是Y'CBCR。
其中:
Y'代表光的浓度,也就是亮度,而且这个值是非线性的。
Cb和Cr代表蓝色和红色浓度的偏移量,包含色度和色差信息。
常见的格式有以下几种,用一个三分比值表示:
- 4:4:4
- 4:2:2
- 4:2:0
第一个值为,区域的宽度,也就是区域的像素数量,通常上为4;
第二个值,第一行像素的色度抽样数目;
第三个值,第二行的色度采样值。
比如我们来看4:4:4这种格式,区域的宽度为4个像素,第一行抽样的数值为4,第二行也是4,也就是所有的信息都被采集到了。这是一种对于色彩细节保留最好的格式。
同理,4:2:2和4:2:0的取样情况如下。
可以明显看到,4:2:2损失了50%的信息,而4:2:0几乎损失了75%的信息。
即使如此,损失了50%的4:2:2也被视为高品质的专业视频格式,比如索尼家的微单相机,目前应该只有A7S3和A1支持4:2:2的视频格式,其他的主流机型,目前还停留在4:2:0上。
注:在比较图像质量,比值才是重点,你可以把4:4:4称为1:1:1,但是习惯和约定俗成的情况下,取样的总样本范围还是为4,这也就是为什么没人16:10称为8:5的原因,无他,习惯耳。
可能有小伙伴要问了,为什么要采样呢,搞的这么复杂?
鲁(niu}迅(dun)又曾经说过——
人们的很多选择,多半是为了效率(省钱)。
要使用4:4:4不仅是对于拍摄器材的性能要求极高,存储上,也吃不消。
还有一个最主要的原因是,眼镜对于微调的色度不太敏感。
也就是说,Cr和Cb可以用一点点的样本就能进行编码,而且可见的质量损失微乎其微,却节省了大量的数据量。
这也就是你即使用保留了25%的色彩信息的4:2:0去拍,实际的观感也没有那么差的原因。
但是你如果要进行复杂的后期,甚至抠像特效的时候,你就会发现,4:2:0的画面用起来就有点捉襟见肘了,还是得上4:2:2。
RAW,Log,Rec709,HLG又是什么RAW,(生)肉玩摄影的朋友,想必对于RAW很熟悉了,记录了传感器采集到的所有的光线的信息。
严格来说,RAW并不是一种图片格式,而是一个数据包。
拍的RAW格式的视频,与图片类似(本质上视频就是一张张图片拼接起来嘛)。
拥有的最大的后期空间,但是能够拍摄RAW视频的器材不多,都是比较专业的摄影机,比如RED,ARRI之流,都十分的昂贵,但是有一个例外,就是适马fp,机身小巧,也不算贵,能够拍摄 cinemaDNG序列(也算是一种RAW视频了)。
其实所有的拍摄设备,都有RAW的这个过程,为什么不把RAW数据直接给你呢?
RAW是个数据量杀手,你刚塞进去一张128G的SD卡,还没有一分钟呢,嚯,卡满了。而是对于后期处理也是一个大难题,流程繁琐,并不适合大多数据消费者使用。
Log,指数观察世界人眼能看清楚明亮的天空,也能辨别阴影的细节。
这就说明人眼对于光线的感知并不是线性的,这也就是中性灰是18%,而不是50%的原因。
为了尽量的拟合人眼识光线明暗的特点,人们找到了log这个函数来模拟。
为的就是记录更多的明暗数据,换句话说,就是把暗部拉上去,把亮度压下来(是不是相机了后期照片时减高光,加阴影的操作?)来让画面有用更高的动态范围。
不同的厂家有着不同的Log曲线,比如佳能的是C-log,索尼家的是S-log,富士家是F-log,松下的是V-log(注意不是拍的吃饭旅游的那个玩意)。
即使是同一家厂商,Log曲线也有不同的版本,比如C-log就有1,2,3的区别,在暗部,亮部的捕获表现上都会有细微的差异。
但是直接观看Log画面,会显得十分的『灰』。
如何观看正确的色彩呢?这时候LUT就登场了。
基本上所有的厂家都会提供自己log模式的还原Lut,可以很轻易的地官网找到。
日常使用Log拍摄时,需要注意以下两个问题:
起跳ISO,比如,索尼的Slog3的起跳ISO是800,如果在打白天,也想使用大光圈拍摄,那么减光镜就是不可或缺的配件;
对于精准曝光要求极高,所以你得上监视器,或者使用直方图,斑马纹来确认你的曝光是否准确,相信我,大多数新手拍Log会在精准曝光上载无数个跟头,一个比较实用的曝光的经验是,在保留画面信息的基础上,尽量向右曝光。
注:
有些相机厂商虽然也支持RAW外录和N-log,但是需要你『花钱』升级固件,比如尼康Z6/7
Lut:是滤镜吗Lut,即为look up table,直译就是颜色查找表,输入一个值,然后换成另外一个值,从而达到调色的目的。
是不是看起来跟滤镜的作用一样,但实际上原理是相当不同的。
你可以简单理解为,LUT是颜色替换,而滤镜是计算。
当然,你也可以在网上找到无数的Lut,有兴趣的话,也可以自己做一个。
HLG随着技术的进步,HDR设备开始普及,包括你手头的旗舰手机几乎都开始支持HDR了。
关于更多关于HDR的介绍,可以参考我之见的回答。
zhihu/question/19774840/answer/660920430
相机们也可以加入了HDR视频的拍摄能力。
这里就不得不提HLG标准了,HLG是BBC和NHK联合开发HDR标准,提供了编码宽动态范围(HDR)的能力,也保留了标准动态范围(SDR)的支持,使得他的兼容性很好。
而且HLG标准并不需要你掏专利费,所以很多厂商也纷纷投入了HLG怀抱,比如索尼,松下,甚至大疆的大多数设备,都可以拍摄HLG视频。由于采用的是相同的标准,即使是不同厂家的设备拍摄的HLG视频,后期在颜色匹配上也比较完美。
p.s
iPhone12拍摄的HDR视频,标准为杜比视界。实际上iPhone12拍摄的也是HLG视频,只不过加了一层杜比视界的元数据层。
相对于Log,HLG还有以下两个特点:
画面没有那么灰,颜色显示较为正常,甚至不用处理也可以直出使用;
没有起跳ISO的限制,使用起来比较方便。
HLG同log一样,也有HLG1,HLG2,HLG3的区别,在暗部和亮部的保留和取舍上各有倾向。要依据你实际拍摄的画面而定。有空了可以深入探讨这个问题。
对于日常使用或者新手来讲,HLG明显更加友好。
Rec.709,色彩标准这是一个1990年发布的统一色彩标准,色域和sRGB相同。
这个色域并不大,多数设备拍摄的素材都可以轻松超过,但是一些显示设备或者产品服务,就只支持这个标准,你大于这个标准拍摄的画面,实际播放是没有任何意义的。
也就是说,为了能在电视上,普通显示器上正确的显示色彩,就得按照Rec.709的规定来。
但是随着HDR设备的普及,就连B站也开始支持HDR了,Rec.709这个标准貌似不太够用了,于是新的标准也诞生了,BT2020,支持4k,8K,最高120帧的速率,以及12位的深度。
所以你在拍摄Log或者HLG视频时,可以将色域选择为bt2020,这样可以在HDR显示上获得更好的观影体验。
快门角度还是速度照相机除了拍照也可以拍视频,电影机也可以拍照,那他们的区别到底是什么?
其实最明显的一个操作逻辑上的区别,就是快门。
关于快门的前世今生,可以参考我之前的这篇文章:
zhihu/question/36033197/answer/1693671720
如果你用过BMPCC之类的摄影机,在快门参数的调节上,使用的是快门角度。
这个概念其实来自于电影拍摄,电影为24帧每秒,那每一帧的快门速度就为1/24s。但是人们发现这个速度的动态模糊太大了,导致视频看起来一点都不清晰。
那么如何调节胶片拍摄的时候的快门速度呢?加上一个旋转快门就好了。
比如这个180°的快门装置,就能遮挡一半的光线,让快门速度来到1/48s。
当然也有45°的快门和270°的快门,做法也比较简单,调节快门板的角度就好了。
人们发现,180°的时候,在画面锐度和动态模糊间达到了一个完美的平衡,所以,以前的电影机和摄影机基本上都是以180°的快门角度来拍摄视频。
在摄影机上,设置为180度的快门角度就好了,但是对于普通相机来说,快门速度要按照二倍帧率的倒数来设定:
- 24帧,快门速度为1/50s;
- 60帧,快门速度为1/120s;
- 120帧,快门速度为1/250s
来达到类似的效果。
不过当前的相机基本上都提供能自定义拍摄参数的保存,方便你快速切换。
不可忽视的限制使用相机或者单反拍视频时,总是存在各种各样的限制:
这个限制主要是来自于数据量,拍摄高分辨率高帧率的视频,会产生很大热量,散热如果不给力的话,相机就会做录制时长的限制,比如很多相机只能连续录制30分钟的视频,要么就直接给你来一个过热警告。
另一个是高分辨率高帧率的视频对存储卡的写入速度也提出了要求,而高速卡的价格往往也不便宜。
而且数据量的增大,会增加相机的运算负担,一些功能在高分辨或者高帧率下就被禁用,比如:
大部分相机在1080P/120帧的模式下,无法启用人脸/人眼对焦,只能使用最为传统的反差对焦;
代理视频的录制功能,只能后期通过电脑生成代理视频。
是时候按下录制键了无论你使用怎样的设备,无论这个设备的性能如何,最重要的是出去拍。
以上讲的所有知识,都只是为了让你获得一个更加好看的画面,让你的画面更加锐利,减少噪点,但是画面永远不是全部,他只是锦上添花的部分。
更加重要的是内容和故事。
如何讲好一个故事,才是你应该不断思考的问题。
你还对那些视频制作的知识感兴趣,或者有哪些你认为不对的地方,可以在评论区里边提出来,我们一起讨论。
以上。
,