Photography is not about the thing photographed. It is about how that thing looks photographed.
照片并非关于事物本身,而是关于拍摄时事物所呈现的状态
留意摄影类话题的人可能对于一些讨论比较熟悉,比如人眼睛视角是等效的35mm呢还是等效50mm呢?人眼睛可以直接看到相机HDR处理以后的场景,瞳孔可以像光圈那样调节等等讨论。我们经常讨论一些话题比如同样的场景我们眼睛看到的和拍出的照片感觉完全不一样。比如经典的旅游景点“骗照”,“这地方跟INS上看到完全不一样嘛”。“这样的场景能够拍成这样的绝对是大神”。
那么如果把人类的眼睛比作一台照相机,会是怎么样一台照相机呢?这次文章我们就带着这些问题来一次硬核的碰撞,人眼睛vs照相机。由于人眼涉及很多专业生理医学知识,我们为了便于理解会尽力绕开一些晦涩难懂的医学知识,转化成我们摄影人习惯的摄影术语。
人眼vs相机,结构系统
1.硬件结构对比
如果作为一次横向评测,我们需要从基础的硬件开始了,这里就省去了开箱环节了,如果有强迫症的非要“开箱”环节请移步至医学头条号。这里开个玩笑,我们先来看下人眼睛和相机的硬件对比:
人的眼睛由眼角膜,虹膜,瞳孔以及视网膜组成,相机呢一般是由镜组,光圈环,快门和传感器组成。如果我们做一个横向的比较那么我们就可以得出以下对比:
这里我们简单列举了一些近似结构来解构人眼和相机的硬件对比,实际上的人眼睛有着比相机更复杂更精密的结构。我们从光路结构上可以看到近乎相同的成像原理。
我们从结构系统上可以看到一个明显的结论就是人眼可以看做是一台定焦镜头的相机,那么很多小伙伴很好奇,到底人眼睛的等效焦距是多少呢?
2.人眼睛的焦距
为了探讨人眼睛的等效焦距,我们要先来看相机的焦距是如何定义的,所谓焦距是光学系统中对于光的聚散的一种度量方式,一般是指透镜中心到透镜把光线汇聚的焦点之间的距离。我们应用到照相机中,就是可以理解为镜片的光学中心到感光元件/胶片的成像面的距离。焦距一般用mm单位表示,焦距越短能够汇聚更多的光线,能够投影出来的视野也就越广,反之焦距越长汇聚的光线也就越有限制,视野也就越窄。
接下来我们探讨人眼睛和相机的等效焦距对比,我们来看下人眼结构,按照成像原理,焦距也是可以测量的,其实人类的生理解剖早就可以覆盖这个测量了,我们测量人眼睛从角膜到视网膜的距离,大概是25mm,瞳孔的直径呢可以收缩2mm,扩张7-8mm。如果我们利用这些数据是不是可以算出人眼睛的焦距呢?由于人眼不是像相机那样的工业化产品所有的参数都是固定的,人类的生理指标都是一个范围,没有特别精确的测量,而且活体的人还要考虑各种肌肉收缩等带来的变化。那么我们如何才能精确的测量出人眼睛的焦距呢?
这里我们找到了一个新的方案,那就是利用人眼睛屈光度来转换。我们小时候都学过光学的折射,光由一个物体摄入另外一个物体的时候,由于密度不同,传播放心发生偏折,这个叫做光线的折射,同时我们也把这个现象叫做屈光现象,物理上为了表示屈光的大小,我们用屈光度来表示,单位是"D",这里是不是觉得非常眼熟,对就是近视朋友非常熟悉的一个参数,一般我们说近视是多少度,比如200度近视,其实转换成屈光度就是-2D。那么屈光度跟焦距什么关系呢?别急,我们可以找到一个换算关系:1屈光度相当于平行光线汇聚在1米的焦距上。通常我们把焦距f的倒数作为屈光度,我们前面已经知道了焦距的长短决定了折光能力的强弱。屈光度有正负,主要是因为凸透镜和凹透镜的关系。所以一个 2屈光度的透镜会吧平行光汇聚在镜片外面1/2米的地方,或者说2D屈光里的透镜焦距是1/2m,也就是50cm。我们按照屈光度和焦距的换算,可以得出人眼睛的焦距是17mm,但是也有一些测算认为是22mm到24mm,实际情况随着人的具体情况而变化。
3.人眼的光圈值
我们都知道相机的光圈值,比如f/4, f/2.8, 这样的光圈值,那么人眼的光圈值是多少呢?这里我们的计算原理是知道瞳孔的近似焦距和直径来测算的。我们前面已经得出了人眼睛的焦距为17mm,然后我们按照瞳孔的直径为8mm来计算,我们可以得出人眼睛可以有一个相当于f/2.1的光圈值。那么按照一些观点人眼睛24mm等效焦距来计算呢也按照8mm瞳孔的尺寸可以得出f/3.5的光圈值。
实际上已经有很多科学家对于人眼睛光圈值进行过精密的测算,测量的结果是f/3.2到f/3.5之间。相比相机的F/1.4光圈值甚至是F/1.2人眼睛光圈值略占下风。
4.人眼的视野范围
我们都知道相机的视野范围随着焦距的变化而变化,焦距越短视野越广,焦距越长视野越窄。我们前面已经介绍了人眼睛的焦距为17mm,那么为什么还有那么多人争论35mm还是50mm呢?这里主要是因为对应的等效焦距视野的关系。这里我们要提出一点关于等效焦距的概念,摄影中我们把35mm全画幅底片的相机当做标准,任何大于或者小于这个画幅的相机使用相同焦距镜头的时候想要获得相同的视野范围需要在焦距上乘以对应的等效系数。比如常见的APSC画幅有着相比全画幅1.6倍的裁切系数,对应等效系数就是x1.6,所以当你使用APS-C画幅相机的时候35mm焦距的镜头只能提供相对于全画幅56mm焦距的视野了。
我们前面的结构里面已经阐述了人的视网膜相当于相机的传感器或者底片。但是人的视网膜是一个弧面弯曲的,而且并不是全部参与成像的,我们通常把参与成像的部分区域,叫做“主视觉区域”的。部分参与成像的区域叫做“周围视觉区域”,也就是说我们的主视觉区域以外还有比主视觉细节少的辅助视觉区域。同时我们还要注意人类的眼睛并不是单反(只有一个镜头),我们是双眼同时参与成像的,所以我们两个眼睛的视觉范围除了有扩张的周围视觉以外还是有重叠区域的。有科学研究证实了,人类眼睛的主视觉区域的范围在55°左右,我们换算到全画幅相机上面,一个43mm焦距的镜头可以提供55°的视觉范围。所以虽然人眼睛拥有对应17mm的焦距,但是只能拥有43mm的等效焦距视野。所以我们就不用再争论人眼的焦距是35mm还是50mm了,如果只讨论等效焦距的话可以定义为43mm等效焦距。
人眼vs相机,成像质量我们了解了人眼与相机的结构对比,下面就是相对核心的内容了,就是成像质量的对比了。这里我们其实很难把人眼睛捕捉的视觉信号数字化再放到一起跟数码相机进行统一的比较,我们需要找到一些等效的手段。
1.像素和分辨率
我们可能第一个好奇的问题就是,人眼睛到底相当于多少像素的相机呢?这里我们直接给出答案,就是1.3亿像素,如果你拿尼康专业单反相机D850来比较的话4500万像素,其实相机已经败了。那么在像素上人眼睛真的是完胜了吗?但是实际的情况不能单纯的用像素来比较,正如前面说的,先天的硬件不同导致了无法绝对的横向比较了。我们的1.3亿像素实际上对于人眼睛来说,其实只有600万到800万是视锥细胞,所谓视锥细胞是对于光学和颜色有高分辨率的细胞。而其它的周围部分是被称为视杆细胞的区域,对于颜色分辨率不够高,但是对于光线明暗。这是什么意思呢?就是说人眼睛的1.3亿像素,其实只有600万像素是彩色像素,剩余的1亿2千万像素都是黑白像素。
我们如果观察过相机的传感器,可以看到每个像素都是规则的排列着。传感器每平方毫米都有固定密度的像素分布。而人眼睛的视网膜不是像相机传感器那样均匀分布的。我们前面知道了人眼睛的1.3亿像素只有600多万是彩色的像素,其余都是黑白的。因为视网膜上中央的区域我们称为“黄斑区域”,只有6毫米的区域范围,我们前面说的彩色像素的区域只有这6毫米的区域。如果我们计算单位像素面积的话,人眼睛1平方毫米中有大约15万像素,我们一般2400万像素的全画幅传感器,35mmX 24mm的面积内1平方毫米有大约2.8万像素。所以理论测算上面,我们上面提到的55°的主要视觉区域内的分辨率比我们一般全画幅相机的分辨率要高很多。
2.边缘成像质量
这里我们要提出一个明显的差异问题就是人眼睛的底片也就是视网膜的宽度近似32mm宽,听上去好像跟35mm全画幅底片很接近呢?但是实际上差异还是非常大的,首先虽然宽度接近但是由于人眼球视网膜不是像胶片那样是平面的,它实际上是一个曲面,曲面成像会有一个非常明显的优势,因为光学通过透镜的时候汇聚的是一个锥形,平面传感器的中心和边缘距离镜片的距离是不同的,所以我们才需要一些特殊的非球面镜片来弥补边缘的成像。但是我们人眼睛就不需要了,因为曲面“传感器”直接可以弥补这个差异,所以理论上我们人眼睛拥有比相机更好的边缘成像质量。
到这里是不是有朋友对于曲面传感器感觉熟悉呢?没错,之前就有消息称佳能公司正在研发曲面传感器,通过加热挤压形成曲面的光学传感器来提高相机的边缘成像质量,目前只有专利申请消息流出,相信这背后的复杂度,距离上市还是有很多距离的。
3.感光度与暗光成像
我们有一种感觉,晚上我们眼睛在暗光环境下视力下降很多,无法跟相机一样直接看到非常暗的环境中,这里我们就引入了感光度的对比。人眼睛的感光度是可以自动调节的,光强度环境发生变化的时候,我们的眼睛可以通过调节视网膜色素的含量,来达到增加或者减少“感光度”的效果。但是这种调整非常的慢,有的时候可能需要几十分钟的时间。我们经常有这种感觉,封闭的屋子里突然关上灯,感觉眼前漆黑一片,但是慢慢的随着时间的增加我们可以看到一些微弱的光和屋内的细节。这就是我们眼睛的感光度升高了。按照这种理论我们比较容易发现在偏远的郊区我们很容易看到夜空上的星星,但是在灯光绚丽的城市里很难看到星星。这其实也有感光度的调节在起作用。
那么人眼和相机的暗光能力对比如何呢?我们这里拿来了索尼高感强悍的A7SII相机进行对比,我们不能直接数字化肉眼所得画面这里采用了模拟的效果来近似对比一下实际情况。可以看到夜晚暗光环境下,肉眼所得画面无法跟相机的高感拍摄画面对比。同时我们也注意到了,肉眼暗光下的画面大部分都是黑白的。我们前面已经提到了人眼睛里面只有中央的600万像素是彩色信息,剩下的大片范围是黑白像素。其实都是以视杆细胞为主的视网膜周围区域,虽然分辨率低,但是对于暗光更敏感。
4.动态范围
人眼睛由一个非常强大的优势,那就是我们在强烈的阳光下,依然可以看到眼前的物体细节。但是如果相机对着逆光拍摄的话,整个画面会非常暗。当然相机可以通过包围曝光合成,或者后期调整来实现更高的动态范围表现。但是人眼睛的高动态范围是原生的。
由于自然界的光强度变化范围特别大,基本上从刺眼的太阳光到微弱的星光差了10的8次方的数量级,也就是1亿倍。如果我们换算为摄影语言就是自然界的光线动态范围是27Ev这个数量级。我们对于相机的动态范围判定就是对于光线强度的记录,其实就是存储的光量子的比例。
人的眼睛里面有600万椎体细胞,1亿2千万的杆体细胞分别负责彩色信心和明暗信息的处理。由于人眼睛传递的始终是动态信号,如果我们要换算成感光元件能记录的动态范围,一般数码相机的RAW 格式可以记录10~14位的信息,理论动态范围是10~14Ev,但是实际可用的动态范围只有5~9Ev。人眼更像是一台摄像机,瞳孔视网膜,大脑一直高速运转着,一直刷新大脑中的图像,也就是说人眼睛属于同时进行的高速拍照 拼图 HDR合成 后期优化处理。视网膜可以在一秒钟内发送1000万字节的信号。由此可见人眼睛的动态范围是多么强大吧。
我们对比了结构系统,画质的差异,最后关于图像的处理能力对比。
人眼vs相机图像处理能力对比1.信号传输对比
我们从数据传输结构说起,相机的图像传感器负责把光信号转换成模拟的电信号,然后通过AD转换器把模拟信号转换成计算机可以处理的数字信号,最后把数据发到中央处理器,中央处理器对信号进行处理才形成可以浏览和传播的数字图像最后把数据保存在存储介质中也就是我们一般使用的存储卡上。
其实人眼睛也是有类似的传输结构从视网膜到大脑,不同的是人的视网膜中有1.3亿个“传感器”,但是把这些传感器的信号传递到大脑的视神经只有120万根,从另外一个角度说,人眼睛只有不到10%的“图像”数据传递到了大脑。这背后的原因比较复杂有一部分原因是视网膜中的生物传感器受到刺激以后需要一段“充电”时间,无法做到完全的实时传输,还有一种原因是信息流太大了,我们的大脑不能同时处理这么多信息,而且也不需要进行全部处理。
2.信号处理对比
我们讨论图像信号处理之前我们先来看一个图片,这幅图片是经过特殊处理的只有部分纹理是彩色的其余都是黑白的,但是我们的眼睛可以感觉到整个画面都是彩色的,我们用计算机图像处理工具进行识别可以发现彩色纹理的间隙都是黑白的,但是肉眼感觉到的都是彩色的。这其实就是因为大脑处理图像的直接证据,大脑不会跟相机一样进行100%还原处理,是进行一定程度的加工处理的。可见我们的老话“眼见为实”也有待商榷啊。
大脑对信号的处理方式跟我们的数码相机完全机不同。相机是通过间歇的快门产生视频片段的,熟悉视频的朋友可能对于视频的“码流”比较熟悉。人的眼睛向大脑发送的是一种恒定的视频流,而且这些视频流直接就是大脑可以处理的,同时大脑会快速的比较两只眼睛传递过来的信号,把最重要的部分组装成三维图像,然后将它们发送到大脑的潜意识部分来进行图像识别和进一步处理。
大脑的潜意识部分还向眼睛发送信号,用扫描方式缓慢移动眼球,让我们的视线在聚焦的范围内缓缓移动。在几秒钟的时间内,眼睛实际上会发送很多个图像,然后大脑把这些图像处理成更完整,更详细的图像。这就类似于相机的多帧合成技术,可以对多张图像进行后期处理合成。这也就是为什么我们可以看到很多相机无法一次曝光成功的场景了。最后图像会到达意识部分也称为视觉皮层,这部分区域与大脑的记忆部分紧密相连,所以我们可以“识别”图像中的对象。通俗的讲就是当我们看到某些东西时,触发我们思维认知的同时还可以引发我们的记忆,我们经常说的“似曾相识的场景”。
结束语我们对比了人眼和相机的结构图图像处理以及画质,虽然从复杂和精密程度上来讲,人眼睛碾压相机的存在,但是我们也看到了随着技术的进步相机的结构和功能也在发生着非常深刻的变化,我们也看到了现在很多人眼睛才有的多帧处理技术已经开始在相机的摄影技术上应用了。同时我们研究人眼睛的潜意识扫描也可以进一步研究照片视觉引导线,焦点,兴趣点等在摄影构图上运用的基础原理。
感谢您的点赞转发,更多内容,欢迎关注我的头条号。 分享优秀摄影作品,学习实用摄影知识。共同学习共同进步,欢迎关注和留言。
,