不懂就问下 !4/3所谓的底小
3800 80
[1 楼] lufeilei12 [泡菜]
13-1-2 16:54
请问  抛开什么景深 画质之类的区别 所谓的4/3底小是不是和SONY类微单的换算系数不同而已? O记和松下的要成于2
谢谢   
[81 楼] 冬天的心 [资深泡菜]
13-1-9 17:22
什么都可以抛开就是不能抛开画质谈画幅。其实道理很简单,为什么有中画幅、大画幅?为什么135普及了成了所谓的全画幅。想明白了之后再考虑为什么胶片时代aps半幅135失败了?数码时代aps现阶段很成功?记住这是两个问题
[80 楼] palesony [泡菜]
13-1-9 17:12
palesony 发表于 2013-1-9 16:55 理论我不太说的出很多,我只知道某HKUST的物理博士生(EM5用户兼香港国际奥物的领队)跟我确认,像素压根儿不会影响最大可接受弥散圈

假如设定的最大可接受分辨率为xx线对/mm,那么像素增加只会使得对这个分辨率位置的测量更加精确

一团水蒸气你用一亿像素去拍难道就会变成云吗?这么简单的道理被个不知道台湾还是香港的外行插了一句都不懂了?
[79 楼] palesony [泡菜]
13-1-9 16:55
理论我不太说的出很多,我只知道某HKUST的物理博士生(EM5用户兼香港国际奥物的领队)跟我确认,像素压根儿不会影响最大可接受弥散圈 本帖最后由 palesony 于 2013-1-9 16:57 编辑

[78 楼] raulwu [泡菜]
13-1-9 16:39
wanglizero 发表于 2013-1-2 19:25
4/3底的确是相当小了,相当于全副的1/16大小(还是1/12)

不能说坏处那么难听,景深不够浅,虚化效果不好

另外就是底小对于其高感能里是很有限制的,单位像素所占面积小,高感容易产生噪点

底小带来的优点也有,对焦快,轻便

这位帅哥的数学是体育老师教的?转换系数2倍,就是对角线的比例为1:2,面积就是1:4
4/3的芯片面积大小约为全画幅的1/4
[77 楼] 五能猫 [老坛泡菜]
13-1-8 16:39
acutls 发表于 2013-1-8 16:14
胶片时代,不同胶片的分辨率不同,更不要说不同尺寸的胶片了,“像素”的区别也是有的,和电子时代一样。之所以定义“正前方30厘米,7寸照片”,就是为了把打印尺寸和视距这两个变量拿出景深计算。

大致同意palesony的说法,这种有公论的事,网络资料一般比自己拍脑袋的结果靠谱。


所以说笨蛋太多。
[76 楼] acutls [资深泡菜]
13-1-8 16:14
五能猫 发表于 2013-1-7 14:48
这个景深定义是有条件的,也就是“正前方30厘米,7寸照片”。虽然和像素没有直接关系,但是和打印尺寸大小,观察距离是有关系的。在同样的打印条件下,比方说300dpi下,高像素其实可以打印更大的照片,提供更丰富的细节。在7寸大小下落在景深范围内的东西,打印到10寸,可能就虚了。所以间接的,像素影响景深。


胶片时代,不同胶片的分辨率不同,更不要说不同尺寸的胶片了,“像素”的区别也是有的,和电子时代一样。之所以定义“正前方30厘米,7寸照片”,就是为了把打印尺寸和视距这两个变量拿出景深计算。

大致同意palesony的说法,这种有公论的事,网络资料一般比自己拍脑袋的结果靠谱。 本帖最后由 acutls 于 2013-1-8 16:19 编辑

[75 楼] lonelyorchid [泡菜]
13-1-7 19:35
呵呵,一眼就看出来了,您是明白人

五能猫 发表于 2013-1-7 14:48
这个景深定义是有条件的,也就是“正前方30厘米,7寸照片”。虽然和像素没有直接关系,但是和打印尺寸大小,观察距离是有关系的。在同样的打印条件下,比方说300dpi下,高像素其实可以打印更大的照片,提供更丰富的细节。在7寸大小下落在景深范围内的东西,打印到10寸,可能就虚了。所以间接的,像素影响景深。
[74 楼] 虚度 [资深泡菜]
13-1-7 14:55
palesony 发表于 2013-1-7 12:11
首先景深不是一个严格的概念,焦内到焦外是一个渐变的过程

而测量可接受的分辨率,就是检测其空间分辨率,说白了就是检测反差值,当它小到一定程度的时候,可以认为是模糊

注意,传感器也好,胶片底片也好,它们只是对镜头的成像反应并输出,而镜头的成像是不受底子究竟是胶片,还是1200w像素还是3600w像素传感器的影响的,传感器只负责把它看到的东西反应出来,因此,它们的景深差别在于,用仪器能够更精确地测量出某个反差值极限内的距离。像素的增加,会使得这个空间分辨率的检测更加精确,也就是说能得出最接近其景深的数值,而景深本身并不会发生变化,假如只有一个像素,那么这个像素反应的就是一个灰度值(单色),或者红/绿/蓝某个颜色的灰度值(拜尔滤镜),假如是30万像素,测量出来的景深是15cm,600万像素是18cm,1200万像素是19.7cm,3600万像素是19.9cm,当像素趋于无穷的时候,为20cm,因此,像素的增加只会最终使得检测更加趋近于它的真实值,但却不会影响到它本身。就像是你用一把只刻有厘米的尺子去测量一支笔的长度,然后再用游标卡尺去测量,再用更加精密的仪器去测,得出来的值,只会是无限趋近于其真实值,当然读数上发生了改变,但是我们不能因此说笔的长度发生了改 ...

为什么不能说笔的长度在变化呢,你从微观说,笔由原子组成,它不是刚性结构,所谓的刚性结构只出现在经典力学里,你用纳米精度或者更微观的尺子去测量肯定是变化的,但这种变化对于宏观尺度的力学可是忽略不计的。
[73 楼] 五能猫 [老坛泡菜]
13-1-7 14:48
虚度 发表于 2013-1-6 21:15
转:弥散圆
  

  
弥散圆(circle of confusion):物点成像时,由于像差,其成像光束不能会聚于一点,在像平面上形成一个扩散的圆形投影,成为弥散圆。当使点光源经过镜头在像平面成像,如果此时保持镜头与相平面距离不变,沿光轴方向前后移动点光源,则像平面上成的像就会成为有一定直径的圆形,就叫弥散圆。 它也被又译为弥散圈、弥散环、散光圈、 模糊圈、 散射圆盘。
  弥散圆大小取决于镜头孔径(光圈)和点光源偏离程度(物距),而对其判断往往与相关的图像形式密不可分,观测条件,视力状况都对其有影响,清晰与否是最大弥散圆的主要判断依据。在现实当中,观赏拍摄的影像一般是以投影、电视电脑屏幕或者放大成照片等形式来观看的。也就是说人眼所感受到的影像与放大率、投影距离及观看距离有很大的关系。若这个圆形像的直径足够小,成像会足够清晰,如果圆形再大些,相片会显得模糊,在这个临界点所成的像被称作容许弥散圆。如果弥散圆的直径小于人眼的鉴别能力,在一定范围内实际影像产生的模糊是不能辨认的,这个不能辨认的弥散圆就成为容许弥散圆(permissible circle of confusion)。如果此圆形足够小,肉眼依然可被视为点的合焦成像。这个可以被接受的最大直径被称为容许弥散 ...


这个景深定义是有条件的,也就是“正前方30厘米,7寸照片”。虽然和像素没有直接关系,但是和打印尺寸大小,观察距离是有关系的。在同样的打印条件下,比方说300dpi下,高像素其实可以打印更大的照片,提供更丰富的细节。在7寸大小下落在景深范围内的东西,打印到10寸,可能就虚了。所以间接的,像素影响景深。
[72 楼] lonelyorchid [泡菜]
13-1-7 13:01
抱歉,忘了回应你关于放大倍率的问题。

理论上,我们确实应当是记录角分辨率。但事实上,我们现有的技术做不到。取而代之的是记录线分辨率(这个词是我自创的,因为不知道术语怎么讲,指的是与角分辨率相对应的概念)。然后通过三角函数进行计算。而这个转换就决定了我们必须限定众多的条件,以保证计算的可重复性。 而在再现图像时,我们理论上也应当是按照角度的方式再现图像,但事实上,我们仍然也需要借助点和三角函数。所以我们对于景深的定义也就变成了对于弥散圆的定义。

至于你说的50mm剪裁变成100mm,这就是外行话了。50mm怎么剪裁都是50mm,不可能变成100mm,他们唯一的联系就是相同视角。看看那个1600wC幅的那段,我觉得我已经在全幅和C幅那个部分论述得很清楚了。不知您对哪步推导没有看明白,或者有异议?

palesony 发表于 2013-1-7 12:11
首先景深不是一个严格的概念,焦内到焦外是一个渐变的过程

而测量可接受的分辨率,就是检测其空间分辨率,说白了就是检测反差值,当它小到一定程度的时候,可以认为是模糊

注意,传感器也好,胶片底片也好,它们只是对镜头
[71 楼] lonelyorchid [泡菜]
13-1-7 12:46
景深确实不是一个严格的概念,但是为了度量,必须要量化。有了量化就必然要定义边界。定义了边界自然也就会出现争论,这都是正常现象。但是不定义边界就无法量化,没法量化就没法度量。所以边界的定义是不可避免的,否则连景深这个概念就都不存在了,不是么?
那么既然要定义,定义什么呢?这就是一个技术活了。爱因斯坦猜想了光速的守恒,于是成功了。牛顿猜想时间守恒,空间守恒光速无穷大,于是只得出了经典物理学的结论。而事实上,对于景深,人们定义的便是人眼在明视距离上的空间分辨率。也就是我所引用的1/8mm。

底片确实是对于镜头成像的反应,但是底片也是有分辨率的(如果你不承认这点,那么就没有什么可说的了。很多人都会想当然的认为胶片的分辨率是无穷大,其实这是错误的。如果看一下胶片的感光原理和感光乳剂的制作工艺就可以知道了。)。也正因为底片有分辨率,所以其放大倍率才会有上限。

至于你说的随着分辨率的增加,测量出的景深无限接近“真实”景深,这只是你的一厢情愿。因为这个世界上并没有“真实”景深这个东西,因为从一开始,景深就是人来定义的。所以,这就是你举例的不恰当之处。长度是恒定的,无论我定义的米有多长,尺子的长度是不会随我的定义而改变的。但是景深则不然,因为景深不是一个客观量,而是一个主观量,是基于人眼的感知的。所以随着我们成像手段的改变,我们的感知也会发生改变,所以定义也就变了。这是一个循环。

不知您想明白了没有。

关于网络上没有相类似的说法,这个其实也很正常,网络没有的不见得就是不对的。不然人类对于自然的认识不就停滞不前了么?

最后,提一句,看别人的观点必须要站在别人的立场,也就是说,不能假设自己固有的观点是正确的,否则你所得到的结论的正确性也就必然地需要基于固有观点的正确性了。而你的固有观点也许未必正确,不然也就不会出现与自己观点不同的其他观点了。所以这种自封闭的逻辑就只能使得我们永远无法走出这个循环。

palesony 发表于 2013-1-7 12:11
首先景深不是一个严格的概念,焦内到焦外是一个渐变的过程

而测量可接受的分辨率,就是检测其空间分辨率,说白了就是检测反差值,当它小到一定程度的时候,可以认为是模糊

注意,传感器也好,胶片底片也好,它们只是对镜头的成像反应并输出,而镜头的成像是不受底子究竟是胶片,还是1200w像素还是3600w像素传感器的影响的,传感器只负责把它看到的东西反应出来,因此,它们的景深差别在于,用仪器能够更精确地测量出某个反差值极限内的距离。像素的增加,会使得这个空间分辨率的检测更加精确,也就是说能得出最接近其景深的数值,而景深本身并不会发生变化,假如只有一个像素,那么这个像素反应的就是一个灰度值(单色),或者红/绿/蓝某个颜色的灰度值(拜尔滤镜),假如是30万像素,测量出来的景深是15cm,600万像素是18cm,1200万像素是19.7cm,3600万像素是19.9cm,当像素趋于无穷的时候,为20cm,因此,像素的增加只会最终使得检测更加趋近于它的真实值,但却不会影响到它本身。就像是你用一把只刻有厘米的尺子去测量一支笔的长度,然后再用游标卡尺去测量,再用更加精密的仪器去测,得出来的值,只会是无限趋近于其真实值,当然读数上发生了改变,但是我们不能因此说笔的长度发生了改 ...
[70 楼] palesony [泡菜]
13-1-7 12:11
lonelyorchid 发表于 2013-1-7 11:31
我从来没有说过“可以放大到多少像素”这个词,或者类似的概念。
至于“Enlargement是不是由Format决定的”,呵呵,你再好好捉摸一下。如果懒得用公式推导,就想一个极端的例子:一个像素。对整个底片只有一个像素,一个是全幅1像素,一个是C幅1像素,然后想像一下在显示器上回放100%时是什么样子

首先景深不是一个严格的概念,焦内到焦外是一个渐变的过程

而测量可接受的分辨率,就是检测其空间分辨率,说白了就是检测反差值,当它小到一定程度的时候,可以认为是模糊

注意,传感器也好,胶片底片也好,它们只是对镜头的成像反应并输出,而镜头的成像是不受底子究竟是胶片,还是1200w像素还是3600w像素传感器的影响的,传感器只负责把它看到的东西反应出来,因此,它们的景深差别在于,用仪器能够更精确地测量出某个反差值极限内的距离。像素的增加,会使得这个空间分辨率的检测更加精确,也就是说能得出最接近其景深的数值,而景深本身并不会发生变化,假如只有一个像素,那么这个像素反应的就是一个灰度值(单色),或者红/绿/蓝某个颜色的灰度值(拜尔滤镜),假如是30万像素,测量出来的景深是15cm,600万像素是18cm,1200万像素是19.7cm,3600万像素是19.9cm,当像素趋于无穷的时候,为20cm,因此,像素的增加只会最终使得检测更加趋近于它的真实值,但却不会影响到它本身。就像是你用一把只刻有厘米的尺子去测量一支笔的长度,然后再用游标卡尺去测量,再用更加精密的仪器去测,得出来的值,只会是无限趋近于其真实值,当然读数上发生了改变,但是我们不能因此说笔的长度发生了改变

再一个,你的错误之处在于,把enlargement放大倍率错误地理解成了像素的放大,而它事实上是投影在画幅上面的视角!诚然3600万像素的50mm照片可以放大裁剪作为100mm拍摄的照片依然清晰,但是这个照片依旧是50mm镜头拍摄的,因为它的属性是由初始拍摄时候的焦距、光圈、对焦距离、画幅决定的!

我翻遍了网路上的资料,当然也包括※※※※※※※※※,没有看到任何的pixel count跟depth of field之间的关系,相关的话真的是一句都找不到!这种自创的理论可以歇一下了
[69 楼] lonelyorchid [泡菜]
13-1-7 11:31
palesony 发表于 2013-1-7 10:40
哥们,你说的Enlargement是由Format决定的,不是由可以放大到多少像素,可以打印多大尺寸决定的,这是最决定性的一点


我从来没有说过“可以放大到多少像素”这个词,或者类似的概念。
至于“Enlargement是不是由Format决定的”,呵呵,你再好好捉摸一下。如果懒得用公式推导,就想一个极端的例子:一个像素。对整个底片只有一个像素,一个是全幅1像素,一个是C幅1像素,然后想像一下在显示器上回放100%时是什么样子
[68 楼] Angel17th [资深泡菜]
13-1-7 10:41
lonelyorchid 发表于 2013-1-7 10:22
结论不同呀。你说效应会越来越不明显,但是我说,效应是线性的,随着像素密度的翻倍,容许弥散圆直径也会成倍的缩小,导致景深对应的缩短……


艹,发现最后算错了,最终趋近点并非为0,这是我的失误。
[67 楼] palesony [泡菜]
13-1-7 10:40
lonelyorchid 发表于 2013-1-7 10:03
1200和3600的机身还真就影响景深。
原因很简单:

弥散是镜头的一个特性,和机身没有任何的关系。这句话完全正确,任何对这句话有异议,请参阅任何一本初级几何光学教材。
但是
几何光学指出,任何的透镜(组),如果可以对光线进行完美的汇聚,则只会有一垂直于主光轴的平面与焦平面重合,换句话说,只有一个平面的能够合焦。由于是平面,所以其厚度为零,也就是说其景深为零。看似有悖常理,但是后面会解释。
进而物理光学指出,几乎不存在一个完美的透镜(组)可以对全可见光段修正全部的5个相差。所以,实际上,我们甚至连一个所谓的完美的垂直于主光轴的平面都无法获得,最多只是一个点。

但是

哥们,你说的Enlargement是由Format决定的,不是由可以放大到多少像素,可以打印多大尺寸决定的,这是最决定性的一点 本帖最后由 palesony 于 2013-1-7 11:00 编辑

[66 楼] Angel17th [资深泡菜]
13-1-7 10:37
lonelyorchid 发表于 2013-1-7 10:22
结论不同呀。你说效应会越来越不明显,但是我说,效应是线性的,随着像素密度的翻倍,容许弥散圆直径也会成倍的缩小,导致景深对应的缩短……


我的结论是景深缩减的速率跟不上像素数量的增加,所以如果按照我的算法,会趋近于越来越小,而你的文章里说的却是像素密度,因为像素数量存在一个平方关系,所以说我不认为我的结论和你的结论有冲突。
[65 楼] lonelyorchid [泡菜]
13-1-7 10:25
您的例子是正确的,但是比喻是错误的。因为长度不涉及人的主观感受,而清晰与否是涉及的。

palesony 发表于 2013-1-7 10:13
不用跟我扯那么多什么哲学、量子物理、宇宙学,反正你不是学这个专业的

像素对于景深的影响在于能够更精确的测量出景深的范围,就像拿一把只有厘米刻度的尺子和游标卡尺测量一样,而物体本身的长度不因测量工具的精准而变化,一个道理
[64 楼] lonelyorchid [泡菜]
13-1-7 10:22
结论不同呀。你说效应会越来越不明显,但是我说,效应是线性的,随着像素密度的翻倍,容许弥散圆直径也会成倍的缩小,导致景深对应的缩短……

Angel17th 发表于 2013-1-7 10:12
明明我这个结论和你自己说的东西是一样的,您却过来喷我是错的,到底是谁在误导呢?看来您真是困了……
[63 楼] perako [泡菜]
13-1-7 10:16
看了上面几楼……俨然已经成为了玄学
[62 楼] palesony [泡菜]
13-1-7 10:13
虚度 发表于 2013-1-7 07:49
你是用机械哲学的方法看问题,看看目前量子物理学、宇宙学的进展对哲学发展的影响吗?
你认为镜头投出的像是客观不变的,我认为是受观察者影响的,这就是哲学立场,你难道认为不同的观察者认为镜头投出的像一样吗?如果这个观察者是人,它会受视力状况影响,如果这个观察者是狗,它看到的像是灰色,如果是CCD,假若只有一个像素,你谈的景深有意义吗?你认为同一个镜头,在不同的画幅下,景深是一样的吗?我认为像素大小绝对会影响景深,只是你没有看到极限条件或者在普通密度下,像素大小对景深的影响微乎其微,你这时还是用你观察者的角度,因为你无法察觉你认为没有影响。

不用跟我扯那么多什么哲学、量子物理、宇宙学,反正你不是学这个专业的

像素对于景深的影响在于能够更精确的测量出景深的范围,就像拿一把只有厘米刻度的尺子和游标卡尺测量一样,而物体本身的长度不因测量工具的精准而变化,一个道理
[61 楼] Angel17th [资深泡菜]
13-1-7 10:12
lonelyorchid 发表于 2013-1-7 10:05
这样都能混资深?我也想要个资深。。。
不过你说的东西不甚正确呀。。。不要误导小盆友

别理我,困了,闹觉呢。。。


明明我这个结论和你自己说的东西是一样的,您却过来喷我是错的,到底是谁在误导呢?看来您真是困了……
[60 楼] lonelyorchid [泡菜]
13-1-7 10:05
这样都能混资深?我也想要个资深。。。
不过你说的东西不甚正确呀。。。不要误导小盆友

别理我,困了,闹觉呢。。。

Angel17th 发表于 2013-1-7 09:21
这个效应会随着像素的增加趋近于0,不用说3600万了,就算是600万对比3600万都不会有太明显的效果,在低像素的情况下效果还是很明显的,比如常用的30万像素的头像对比600万像素的照片就能看出来明显的区别。
[59 楼] lonelyorchid [泡菜]
13-1-7 10:03
1200和3600的机身还真就影响景深。
原因很简单:

弥散是镜头的一个特性,和机身没有任何的关系。这句话完全正确,任何对这句话有异议,请参阅任何一本初级几何光学教材。
但是
几何光学指出,任何的透镜(组),如果可以对光线进行完美的汇聚,则只会有一垂直于主光轴的平面与焦平面重合,换句话说,只有一个平面的能够合焦。由于是平面,所以其厚度为零,也就是说其景深为零。看似有悖常理,但是后面会解释。
进而物理光学指出,几乎不存在一个完美的透镜(组)可以对全可见光段修正全部的5个相差。所以,实际上,我们甚至连一个所谓的完美的垂直于主光轴的平面都无法获得,最多只是一个点。

但是<=非常重要!!

因为人眼的分辨率有限,所以任何小于人眼分辨率的弥散都会被认为是合焦的,而大于人眼分辨率的弥散才会被认为是失焦的。所以,基于人眼的实际分辨率, 弥散小于一定范围,都可以被等效的认为是合焦,所以景深才真正有了“深度”。而深度的存在则是因为人眼的分辨率是有极限的。
至于人眼的分辨率是多少,见仁见智,因为人眼各不相同。因为大家的“视力”是不同的(注意,此处的视力不是我们常说的1点几或者是5点几)。而是由于人眼角膜的平整度,以及视网膜的发育度所决定的。换句话说,对于一个高度近视的人来说,他的眼睛并不是分辨率降低了,而是角膜和晶状体不能在无穷远处合焦而已。但是,如果将物体拉近至可以合焦的距离,他仍然能够清晰地分辨,这才是人眼分辨率的实质。影响因素就不细谈了,没啥关系。回到分辨率,由于人眼不是平面成像系统(如扫描仪),所以人眼的分辨能力不能以大小(距离单位)来衡量,而应是以角度来衡量(这应该没有什么异议吧,想想亿万光年外的星星,尺寸巨大,但是我们看起来也不过一个小点)。由于以上两点,所以人眼的分辨率差异不大,无论远视还是近视,大约为一分(不同实验测得的数据略有出入)。那么一分,这个角度又怎么和长度单位(我们常说的弥散圆直径都是用长度单位的)联系起来呢?这就涉及到了另一个概念:

明视距离
正常视力的人能够最舒服地长时间注视一个物体的最短距离。一般来说,认为是25cm。对于近视者来说,由于其“镜头”无法再无穷远处合焦,所以实际上增强了其近摄能力,所以对于近视眼来说,其明视距离小于25cm。
当我们有了明视距离以后,结合人眼的角分辨率,就不难计算出人眼在明视距离上的空间分辨率了。通常认为是1/8mm(数据均不甚准确,所以有可能这三个数据(一分,25cm,1/8mm)无法相互印证,有兴趣的朋友可以查阅相关资料,获得更精确的数据)。

至此,所有关于人眼的部分便已经结束了。剩下的就该是镜头和底片大小的部分了
因为人眼的在明视距离(假设人眼看照片都是在明视距离上观看,而不是想站在※※※广场上看毛爷爷的照片)上的空间分辨率为1/8mm(以下简称为人眼的分辨率),所以再现在相纸上的景物,如果其弥散成都小于1/8mm,则人眼无法分辨,所以仍然会被认为是清晰的,而如果大于,则会被认为是不清晰的。相纸上的图像是由底片上的图像放大而来的。那么底片到底能够放多大呢?这取决于底片的分辨率(注意,胶片也是有分辨率的,但是这和数码的分辨率是截然不同的概念,有兴趣的,可以参阅各种胶片的使用手册)。经验上讲,135胶片的极限放大尺寸不超过10英寸,常见的放大尺寸在5-7英寸,所以若以7英寸计则放大4倍左右。所以在相纸上被认为清晰的,弥散小于1/8mm的那些部分,在底片上的弥散应当小于1/32mm=0.03125mm 约等于0.035mm这个弥散圆直径。

细心的读者可能会插一句:既然到现在为止,我们都没有讨论底片的尺寸,那么为什么135,APS-C,APS-H,4/3的弥散圆不同呢?(参见30贴引用的数据)。一言以蔽之,便是放大倍数的差异造成的。假设我们使用120的方片,底片尺寸60*60,如果这张片按照135冲印至7寸时的放大倍数4倍来放大,获得的照片大小约是13.5寸。此时,在这张13.5寸的照片上人眼的分辨率没变,还是1/8mm,放大倍数没变,还是4倍,所以其在120底片上的弥散仍然没变,还是约为0.035mm。但是,如果这张照片不放大至13.5寸,而仍是放大至7寸呢?此时,不难计算照片被放大了约两倍,所以此时在相纸上清晰的1/8mm在胶片上则为1/16mm=0.0625mm(之所以此时计算的弥散圆和30楼引用的120底片弥散圆有差异,是因为我假设使用的是66,而他引用的是69,所以同样放大至7寸,66的底片放大得更多,所以允许弥散圆也更小了)。当读完前面括号内的部分,其实我们就已经得到结论了,放大的倍数大,允许弥散圆就越小(反比关系)。至此,所有关于模拟时代的弥散圆概念就都结束了。下面就该真正进入正题了:

数码时代的弥散圆——像素密度
首先,第一个问题是,一张1000万像素的3:2照片能放多大?我的答案是:随你便!只要不怕马赛克,你爱放多大方多大!
这个答案看似不负责任,但是却指出了一个关键的概念“马赛克”。关于AD转换的采样理论,我就不赘述了,可以参阅香农的采样定理。 但是,不可回避的一个问题便是,由于像素概念的存在,我们不可能随心所欲的放大照片。而放大的上限便是100%(假设没有插值)。所谓100%,是一个比例,一个采样(CCD像素)和还原(显示器或者打印机像素)的对应。而100%则是1对1。一个CCD上的像素,对应一个显示器(或打印机)上的像素。此时,插一句,很多人关心:数码相机的照片能放多大?此时,相信你可以自己做一个简单的计算,一个可以回放1080P的20寸高清显示器(1920*1080)的总像素数是大约200w,民用级135相机的最高像素数是目前由D800创造的3600w,所以一个简单的计算告诉我们,一张D800的照片可以铺满约18个高清显示屏,一个屏幕20寸,也就是说可以放大到大约80寸,也就是说对角线2米的画幅。对应其底片为36*24,放大倍数约为55倍(对比于胶片的4倍)。所以,这也同时回答了另外一个问题,为什么老镜头都那么渣。因为老镜头压根儿就不是为了让你放那么大而设计的。回来继续说100%这个话题。其实我在其间隐藏了一个概念:屏幕的像素密度。这个概念重要么,当然重要。因为这又跟人眼分辨率有关了(喜欢水果手机的人肯定听说过水果的视网膜屏吧,就是这个)。一个20英寸,16:9的全高清显示器,不难计算,其像素密度是约为4.34pl/mm(4.34像素每毫米),回想起来人眼的分辨率应为8点每毫米,所以实际上,这张80寸的照片不清晰。怎么样才能清晰呢?自然是缩小尺寸。但是即便是缩小了尺寸,屏幕的分辨率还是那么高呀。。。所以其实并不是缩小显示比例,而是更换像素密度更高的屏幕(比如视网膜屏),由于单位面积的像素数高了,所以总像素数不变,尺寸就缩小了。也就是说,理想条件下,D800所能放大到的最大照片应是40寸,也就是放大27倍。扯得有点远(其实也不远),继续回来说景深。由于这张D800的照片放大了27倍,所以原来在(这个27寸的)相纸上清晰(弥散小于1/8mm)的部分在D800上是多少呢? 是1/(8*27)=1/216mm(0.0046毫米。注意,此时已经不等同于胶片时代的弥散圆直径0.035mm了)。到现在为止,还没有糊涂的朋友应该就已经看出些端倪了,一切都取决于放大倍数。放大的越多,弥散圆直径就越小(貌似前面已经说过了。。。)。但是注意一点,由于数码时代,放大的倍数是有上限的,由像素数决定,所以数码时代,弥散圆是会受到像素数的影响的(很重要的一个中间结论)。

讨论完了数码时代像素的影响,那么就把一切都揉在一起,看看数码时代像素和画幅放在一起的影响。
假设某个变态的照相机厂商某天推出了一款APS-C的3600w像素相机,和D800抢最高像素,那么这时候就有意思了。看过了前面的结论,我们都应该知道,像素决定了放大的大小(已经计算过了,3600w像素约可放大至40寸),那么在回来看看放大倍数。已经计算过全幅的放大了27倍,同时我们又知道全幅和C幅差了1.5倍,所以C幅实际放大了27*1.5=40.5倍。所以,同样的弥散圆,在D800上应为1/216=0.0046毫米,在这个某变态相机上则是1/(8*40.5)=1/324=0.0031毫米。
考虑另外一个可能,Nikon决定把D800上的CMOS剪成C幅,那么这块被剪过的CMOS有多少像素呢?不难计算,大约1600w。同样可以计算这个1600w的C幅照片可以放大的最大画幅是约18寸,而弥散圆同样是0.0046mm。
将以上两例放在一起,我们可以看出,画幅影响了弥散圆,像素也影响了弥散圆。但是如果您到现在蛋都还没碎掉,那么我请您算一下CMOS像素密度和弥散圆直径的关系,您就果然开朗了。一切都和像素密度有关,或者说像素尺寸有关。而他们的比例就是1.5,全幅和C幅的比例。

至此,所有的推导都已经完全了。如果您的蛋蛋早已碎了一地,那就赶快捡起来,用胶水粘好,那个小本本记结论。
结论:
胶片时代:
景深跟弥散圆直径有关,弥散圆直径跟最终冲印出片子的尺寸与胶片尺寸的比例有关。(当然也和人眼分辨率有关,不过这个数值几乎不会变)

数码时代:
景深跟像素密度有关。同焦距,密度越大景深越浅。同样像素,底越小,密度越高,景深越短。同样底,像素约高,密度越大,景深越短。

靠,迷迷糊糊的写了1一个小时。。。都凌晨了3点了。。。结论:跟像素密度有关,这个肯定没错,梦游都说不错。不过是密度大景深浅还是密度小景深浅就不肯定了,晕死。。。白说了。。。

睡了先。。。

palesony 发表于 2013-1-7 04:21
很遗憾你到现在都没有搞清楚像素在测量可接受模糊圈时起到的作用,也不明白为什么全幅的3600万像素和1200万像素其景深并没有发生任何改变这一事实
[58 楼] missfeelingyou [泡菜]
13-1-7 09:41
看了一下,虚度显然是把像素代表的照片尺寸与影响景深的镜头像场面积混淆了,像素提高只能使细节更清晰而不会影响景深
[57 楼] Angel17th [资深泡菜]
13-1-7 09:21
palesony 发表于 2013-1-6 22:42
这我能理解,但是这个清晰是有个极限的,也就是像素增加只能接近这个极限,而总体来说1000亿像素跟3600万像素的景深基本上差别是不大的


这个效应会随着像素的增加趋近于0,不用说3600万了,就算是600万对比3600万都不会有太明显的效果,在低像素的情况下效果还是很明显的,比如常用的30万像素的头像对比600万像素的照片就能看出来明显的区别。
[56 楼] lonelyorchid [泡菜]
13-1-7 08:40
那是因为在制定这个规则的时候还没有数码相机呢。。。。

金色旋风 发表于 2013-1-4 08:31
耐心看看那个资料,比较的是135和120画幅胶片机的弥散圆,都是银盐颗粒,只有底片画幅大小之分,和像素没半毛钱关系。
[55 楼] 虚度 [资深泡菜]
13-1-7 07:49
palesony 发表于 2013-1-6 22:35
镜头投出来的像是不会根据像素多少而发生改变的,而像素越多,只会使得画面清晰成像部分细节更多,但却不会吧模糊部分变为清晰

所以我觉得您还是先读懂你上面发的那帖定义先吧,谢谢。。。。

你是用机械哲学的方法看问题,看看目前量子物理学、宇宙学的进展对哲学发展的影响吗?
你认为镜头投出的像是客观不变的,我认为是受观察者影响的,这就是哲学立场,你难道认为不同的观察者认为镜头投出的像一样吗?如果这个观察者是人,它会受视力状况影响,如果这个观察者是狗,它看到的像是灰色,如果是CCD,假若只有一个像素,你谈的景深有意义吗?你认为同一个镜头,在不同的画幅下,景深是一样的吗?我认为像素大小绝对会影响景深,只是你没有看到极限条件或者在普通密度下,像素大小对景深的影响微乎其微,你这时还是用你观察者的角度,因为你无法察觉你认为没有影响。
[54 楼] lonelyorchid [泡菜]
13-1-7 07:42
那是因为在制定规则的时候,数码相机还没有流行。

金色旋风 发表于 2013-1-4 08:31
耐心看看那个资料,比较的是135和120画幅胶片机的弥散圆,都是银盐颗粒,只有底片画幅大小之分,和像素没半毛钱关系。
[53 楼] lonelyorchid [泡菜]
13-1-7 07:39
你还真说对了,你举例的那四个相机的景深还真就都不相同。

hanml1988 发表于 2013-1-4 08:55
容许弥散圆直径只和底大小有关,一般是对角线尺寸的1/1730
如果按照你说的跟像素大小有关
那么同物距,焦距,光圈下
d700,5D2,D3X,D800四个相机岂不是景深各不相同