1200和3600的机身还真就影响景深。
原因很简单:
弥散是镜头的一个特性,和机身没有任何的关系。这句话完全正确,任何对这句话有异议,请参阅任何一本初级几何光学教材。
但是
几何光学指出,任何的透镜(组),如果可以对光线进行完美的汇聚,则只会有一垂直于主光轴的平面与焦平面重合,换句话说,只有一个平面的能够合焦。由于是平面,所以其厚度为零,也就是说其景深为零。看似有悖常理,但是后面会解释。
进而物理光学指出,几乎不存在一个完美的透镜(组)可以对全可见光段修正全部的5个相差。所以,实际上,我们甚至连一个所谓的完美的垂直于主光轴的平面都无法获得,最多只是一个点。
但是<=非常重要!!
因为人眼的分辨率有限,所以任何小于人眼分辨率的弥散都会被认为是合焦的,而大于人眼分辨率的弥散才会被认为是失焦的。所以,基于人眼的实际分辨率, 弥散小于一定范围,都可以被等效的认为是合焦,所以景深才真正有了“深度”。而深度的存在则是因为人眼的分辨率是有极限的。
至于人眼的分辨率是多少,见仁见智,因为人眼各不相同。因为大家的“视力”是不同的(注意,此处的视力不是我们常说的1点几或者是5点几)。而是由于人眼角膜的平整度,以及视网膜的发育度所决定的。换句话说,对于一个高度近视的人来说,他的眼睛并不是分辨率降低了,而是角膜和晶状体不能在无穷远处合焦而已。但是,如果将物体拉近至可以合焦的距离,他仍然能够清晰地分辨,这才是人眼分辨率的实质。影响因素就不细谈了,没啥关系。回到分辨率,由于人眼不是平面成像系统(如扫描仪),所以人眼的分辨能力不能以大小(距离单位)来衡量,而应是以角度来衡量(这应该没有什么异议吧,想想亿万光年外的星星,尺寸巨大,但是我们看起来也不过一个小点)。由于以上两点,所以人眼的分辨率差异不大,无论远视还是近视,大约为一分(不同实验测得的数据略有出入)。那么一分,这个角度又怎么和长度单位(我们常说的弥散圆直径都是用长度单位的)联系起来呢?这就涉及到了另一个概念:
明视距离
正常视力的人能够最舒服地长时间注视一个物体的最短距离。一般来说,认为是25cm。对于近视者来说,由于其“镜头”无法再无穷远处合焦,所以实际上增强了其近摄能力,所以对于近视眼来说,其明视距离小于25cm。
当我们有了明视距离以后,结合人眼的角分辨率,就不难计算出人眼在明视距离上的空间分辨率了。通常认为是1/8mm(数据均不甚准确,所以有可能这三个数据(一分,25cm,1/8mm)无法相互印证,有兴趣的朋友可以查阅相关资料,获得更精确的数据)。
至此,所有关于人眼的部分便已经结束了。剩下的就该是镜头和底片大小的部分了
因为人眼的在明视距离(假设人眼看照片都是在明视距离上观看,而不是想站在
※※※广场上看毛爷爷的照片)上的空间分辨率为1/8mm(以下简称为人眼的分辨率),所以再现在相纸上的景物,如果其弥散成都小于1/8mm,则人眼无法分辨,所以仍然会被认为是清晰的,而如果大于,则会被认为是不清晰的。相纸上的图像是由底片上的图像放大而来的。那么底片到底能够放多大呢?这取决于底片的分辨率(注意,胶片也是有分辨率的,但是这和数码的分辨率是截然不同的概念,有兴趣的,可以参阅各种胶片的使用手册)。经验上讲,135胶片的极限放大尺寸不超过10英寸,常见的放大尺寸在5-7英寸,所以若以7英寸计则放大4倍左右。所以在相纸上被认为清晰的,弥散小于1/8mm的那些部分,在底片上的弥散应当小于1/32mm=0.03125mm 约等于0.035mm这个弥散圆直径。
细心的读者可能会插一句:既然到现在为止,我们都没有讨论底片的尺寸,那么为什么135,APS-C,APS-H,4/3的弥散圆不同呢?(参见30贴引用的数据)。一言以蔽之,便是放大倍数的差异造成的。假设我们使用120的方片,底片尺寸60*60,如果这张片按照135冲印至7寸时的放大倍数4倍来放大,获得的照片大小约是13.5寸。此时,在这张13.5寸的照片上人眼的分辨率没变,还是1/8mm,放大倍数没变,还是4倍,所以其在120底片上的弥散仍然没变,还是约为0.035mm。但是,如果这张照片不放大至13.5寸,而仍是放大至7寸呢?此时,不难计算照片被放大了约两倍,所以此时在相纸上清晰的1/8mm在胶片上则为1/16mm=0.0625mm(之所以此时计算的弥散圆和30楼引用的120底片弥散圆有差异,是因为我假设使用的是66,而他引用的是69,所以同样放大至7寸,66的底片放大得更多,所以允许弥散圆也更小了)。当读完前面括号内的部分,其实我们就已经得到结论了,放大的倍数大,允许弥散圆就越小(反比关系)。至此,所有关于模拟时代的弥散圆概念就都结束了。下面就该真正进入正题了:
数码时代的弥散圆——像素密度
首先,第一个问题是,一张1000万像素的3:2照片能放多大?我的答案是:随你便!只要不怕马赛克,你爱放多大方多大!
这个答案看似不负责任,但是却指出了一个关键的概念“马赛克”。关于AD转换的采样理论,我就不赘述了,可以参阅香农的采样定理。 但是,不可回避的一个问题便是,由于像素概念的存在,我们不可能随心所欲的放大照片。而放大的上限便是100%(假设没有插值)。所谓100%,是一个比例,一个采样(CCD像素)和还原(显示器或者打印机像素)的对应。而100%则是1对1。一个CCD上的像素,对应一个显示器(或打印机)上的像素。此时,插一句,很多人关心:数码相机的照片能放多大?此时,相信你可以自己做一个简单的计算,一个可以回放1080P的20寸高清显示器(1920*1080)的总像素数是大约200w,民用级135相机的最高像素数是目前由D800创造的3600w,所以一个简单的计算告诉我们,一张D800的照片可以铺满约18个高清显示屏,一个屏幕20寸,也就是说可以放大到大约80寸,也就是说对角线2米的画幅。对应其底片为36*24,放大倍数约为55倍(对比于胶片的4倍)。所以,这也同时回答了另外一个问题,为什么老镜头都那么渣。因为老镜头压根儿就不是为了让你放那么大而设计的。回来继续说100%这个话题。其实我在其间隐藏了一个概念:屏幕的像素密度。这个概念重要么,当然重要。因为这又跟人眼分辨率有关了(喜欢水果手机的人肯定听说过水果的视网膜屏吧,就是这个)。一个20英寸,16:9的全高清显示器,不难计算,其像素密度是约为4.34pl/mm(4.34像素每毫米),回想起来人眼的分辨率应为8点每毫米,所以实际上,这张80寸的照片不清晰。怎么样才能清晰呢?自然是缩小尺寸。但是即便是缩小了尺寸,屏幕的分辨率还是那么高呀。。。所以其实并不是缩小显示比例,而是更换像素密度更高的屏幕(比如视网膜屏),由于单位面积的像素数高了,所以总像素数不变,尺寸就缩小了。也就是说,理想条件下,D800所能放大到的最大照片应是40寸,也就是放大27倍。扯得有点远(其实也不远),继续回来说景深。由于这张D800的照片放大了27倍,所以原来在(这个27寸的)相纸上清晰(弥散小于1/8mm)的部分在D800上是多少呢? 是1/(8*27)=1/216mm(0.0046毫米。注意,此时已经不等同于胶片时代的弥散圆直径0.035mm了)。到现在为止,还没有糊涂的朋友应该就已经看出些端倪了,一切都取决于放大倍数。放大的越多,弥散圆直径就越小(貌似前面已经说过了。。。)。但是注意一点,由于数码时代,放大的倍数是有上限的,由像素数决定,所以数码时代,弥散圆是会受到像素数的影响的(很重要的一个中间结论)。
讨论完了数码时代像素的影响,那么就把一切都揉在一起,看看数码时代像素和画幅放在一起的影响。
假设某个变态的照相机厂商某天推出了一款APS-C的3600w像素相机,和D800抢最高像素,那么这时候就有意思了。看过了前面的结论,我们都应该知道,像素决定了放大的大小(已经计算过了,3600w像素约可放大至40寸),那么在回来看看放大倍数。已经计算过全幅的放大了27倍,同时我们又知道全幅和C幅差了1.5倍,所以C幅实际放大了27*1.5=40.5倍。所以,同样的弥散圆,在D800上应为1/216=0.0046毫米,在这个某变态相机上则是1/(8*40.5)=1/324=0.0031毫米。
考虑另外一个可能,Nikon决定把D800上的CMOS剪成C幅,那么这块被剪过的CMOS有多少像素呢?不难计算,大约1600w。同样可以计算这个1600w的C幅照片可以放大的最大画幅是约18寸,而弥散圆同样是0.0046mm。
将以上两例放在一起,我们可以看出,画幅影响了弥散圆,像素也影响了弥散圆。但是如果您到现在蛋都还没碎掉,那么我请您算一下CMOS像素密度和弥散圆直径的关系,您就果然开朗了。一切都和像素密度有关,或者说像素尺寸有关。而他们的比例就是1.5,全幅和C幅的比例。
至此,所有的推导都已经完全了。如果您的蛋蛋早已碎了一地,那就赶快捡起来,用胶水粘好,那个小本本记结论。
结论:胶片时代:景深跟弥散圆直径有关,弥散圆直径跟最终冲印出片子的尺寸与胶片尺寸的比例有关。(当然也和人眼分辨率有关,不过这个数值几乎不会变)
数码时代:景深跟像素密度有关。同焦距,密度越大景深越浅。同样像素,底越小,密度越高,景深越短。同样底,像素约高,密度越大,景深越短。
靠,迷迷糊糊的写了1一个小时。。。都凌晨了3点了。。。结论:跟像素密度有关,这个肯定没错,梦游都说不错。不过是密度大景深浅还是密度小景深浅就不肯定了,晕死。。。白说了。。。
睡了先。。。
palesony 发表于 2013-1-7 04:21 
很遗憾你到现在都没有搞清楚像素在测量可接受模糊圈时起到的作用,也不明白为什么全幅的3600万像素和1200万像素其景深并没有发生任何改变这一事实