SEO
全幅 全画幅传感器 最大分辨率 艾里斑 瑞利判据 理论分辨率 极限分辨率 衍射极限
太长不看
如果没时间读推导,用一句话来总结由于衍射所带来的分辨率限制,就是
全画幅传感器,使用f/8光圈,在拍摄平均波长接近绿光的图像时,可清晰成像的最高理论分辨率在三千万像素(30MP)左右
稍长不看
在开始数学推导前,简单介绍一些概念。
- 这里我们讨论的是一个理想情况的数码相机系统
- 仅考虑光学完美情况的镜头和完美无噪声的传感器
- 不考虑相机自带的低通滤镜
- 不考虑数字采样时由于奈奎斯特频率带来的限制
- 不考虑拜耳阵列图案带来的不同色光采样区别
- 现代相机的成像原理是透镜成像
- 在经典波动光学中,光被视为一种横波,许多波的性质适用于光
- 由于可变光圈的存在,当光圈缩小时,光波会产生衍射现象
- 点光源通过理想透镜成像时,由于衍射而在焦点处形成的光斑被称为艾里斑
- 艾里斑中央是明亮的圆斑,周围有一组较弱的明暗相间的同心环状条纹
- 分辨率,或曰解析力、解像能力,是一个光学仪器,比如望远镜、照相机、甚至肉眼,分辨远处两件细小物件的能力
- 当两个物件的光线,通过光学仪器的孔隙,则会发生衍射,形成艾里斑,因而互相重叠
- 当两件物件相距太近,影像重叠太多,两个影像便无法分辨
因此,可以得知,在一个理想相机中,当……
- 入射光频率固定
- 理想透镜的小孔直径固定
- 传感器面积已知
则传感器上每个像素的尺寸最小值,完全由相隔最近的两个艾里斑之间的距离而决定。两个艾里斑是否能够分辨的标准,是两个艾里斑之间的距离,恰好为第一个暗环的直径。相当于两个艾里斑的第一个暗环重叠。
全画幅传感器的最大像素个数,可以通过这些已知理论推导出来。
艾里斑
延伸阅读:
- https://zh.wikipedia.org/wiki/衍射
- https://zh.wikipedia.org/wiki/艾里斑
- https://zh.wikipedia.org/wiki/角分辨率
恰好分辨 | 无法分辨 | 瑞利判据 |
---|---|---|
p.c. Cambridge in Colour
两个艾里斑叠加在一起时,其光强分布类似于上图。可以看到,当两个波峰靠得太近时,无法分辨出两个光斑谁是谁。在照片中体现出来的就是两个像素融合到了一起,好比红光加蓝光变为紫光(洋红)。
在示意图中,每个小方格代表传感器上的一个像素,而亮点代表了直径为艾里斑的第一个暗环的光斑。当两个亮点靠的太近,其光强叠加,就会造成原本不是纯白的像素,读取的值也变成了纯白,从而无法完全分辨两个光束。
衍射
成像的小孔直径越小,衍射效应越强:https://zh.wikipedia.org/wiki/衍射#圆孔衍射
因此,当相机光圈值从较大的光圈,如f/1.4,逐渐缩小到f/11及以上的光圈时,衍射产生的艾里斑会变得越来越大。
f/8 | f/32 |
---|---|
p.c. LEICA Barnack Berek Blog
上图中,可以看到,当光圈从f/8缩小到f/32时,衍射效应变得非常显著。原本在焦点附近清晰可分辨的每一个像素,糊成了一团,看不清轮廓。这便是因为衍射光斑相互叠加,造成每个像素无法准确测定入射光的强度。
分辨率
十多年以前,当数码相机仍在逐步追赶胶片相机的成像画质时,就有人谑称“像素越高,相机越好”的表述是“相机小白”鉴定器。
这句话不无道理,但需要添加一些限制条件。比如,在相同像素尺寸下、使用的透镜系统均为完美,像素个数越多,成像质量当然就会更好。当然,这样的比较没有意义,因为透镜系统不可能完美,往往说这话的人比较的相机之间,像素尺寸也不尽相同。关公战秦琼,算不上严肃的讨论。
因此,为了计算物理规律限制下,相机分辨率的理论上限,我们做出了前文所说的限定:完美光学透镜、无噪声完美传感器、传感器尺寸同为全画幅的36mm x 24mm、入射光线限定为波长550nm的单色绿光。
计算和推导
先用一个例子来介绍推理的方法。由于相机的光圈大小用类似f/8的值代表,也就是镜头的焦距/光圈通光直径
的值为8,则对于一个35mm焦距的镜头而言,孔径为 35mm/8 = 4.375mm。
一、首先,角分辨率的瑞利判据
其中 θ 是角分辨率, λ 是光线的波长,D 是光学仪器孔隙的直径。运用小角度近似 tanθ ≈ θ。根据经典透镜光学,在已知焦距 f 时,可近似求知两束光所成像之间的距离 x 为
而此时,因为光圈值恰好为f/D,因此直接代入数值,求得
也就是说,在两个像素中心相距5.368μm时,可以完全分辨两个艾里斑。
二、根据角分辨率所对应的像素面积,计算全画幅传感器尺寸下的像素个数
可以看出,在这种情况下,三千万像素30MP的传感器,已经可以满足完全两个像素上的光斑互不重叠了。继续增加像素密度、令像素尺寸更小,则无法带来更多的提升*——因为两个光斑能够提供的有用的光强,都集中在固定的距离上了,更多的像素无非是测定艾里斑的暗环,或者更精细地测得细小的差别。
*在实际使用中,更多的像素可以通过后期电路和算法的处理,提升信噪比,和实现超采样。
常见光圈值对应的分辨率极限
分辨率极限\光圈 | f/1.4 | f/2.8 | f/5.6 | f/8 | f/11.2 |
---|---|---|---|---|---|
百万像素(MP) | 979 | 244 | 61.2 | 29.98 | 15.298 |
借用他人算的结果图如下
看完上面的计算,或许读者可以更好地了解为什么如今索尼的全画幅传感器要选取一些奇奇怪怪的数值了,如33MP、61MP、以及即将推出的247MP等效中画幅传感器IMX811。这些传感器的像素数,恰好可以满足(等效)全画幅相机系统中,各个常用整档光圈的极限分辨率。而α7R5对比α7C2,则恰好差了一档光圈,f/5.6与f/8的区别。
在更高级的高分辨率r系列上,可以整整开大一档光圈,仍保证成像的每个像素完全清晰可见
这么听,是不是购买α7R的欲望一下就上来了😛
还能更锐吗,老师?
可能各位老法师看到结论后会有些失望:我们所在的世界线的光学规律所限,再高像素的传感器,也无法做到更清晰的采样。
那么,还能有更清晰的方法吗?
这些年来,人们琢磨了两种奇技淫巧:
- 一种是所谓“摇摇乐”的像素抖动技术,即可控地稍微移动传感器,后期合成多张图像,从而以低像素来模拟高像素。这种方法没有本质上提升像素极限,但以多次曝光为代价,换取了许多使用低像素密度传感器的优点。
- 一种则是选择硬刚瑞利判据。既然无法绕开单一圆孔成像所带来的衍射限制,那么就想办法用多个仪器同时成像,通过计算来抵消衍射的影响。
- 在天文学中,对分辨率的要求,远高于生活中玩儿的相机。毕竟,角分辨率差一丢丢,银河系边缘的星体就差了数以亿计光年的距离。
- “干涉测量术”是这类思想的统称。
相关阅读
- https://en.wikipedia.org/wiki/Airy_disk
- https://www.cambridgeincolour.com/tutorials/diffraction-photography.htm
- https://support.d-imaging.sony.co.jp/support/ilc/psms/ilce7rm3/en/index.html
- https://pro.sony/ue_US/technology/full-frame-sensor
- https://gmpphoto.blogspot.com/2012/05/how-many-megapixels-can-camera-handle.html
- https://www.youtube.com/watch?v=H-cAbF25gcI
Top comments (0)