丹麦的良心企业——飞思:给大家看看IQ260这跨时代的“进步”
56023 379
[201 楼] 往事作马 [泡菜]
15-2-24 20:30
fangqizong 发表于 2015-2-23 22:47
14级动态范围不代表14bit色深


他们之间的关系我不懂,但是说明上是两个不同的指标。。。。。
[200 楼] lq84230 [泡菜]
15-2-24 10:58
不说话,只膜
[199 楼] fangqizong [泡菜]
15-2-24 10:43
laopai 发表于 2015-02-23 15:20
14bit或者16bit已经包含了保险系数了。以前俺有帖子讲过当年柯达和飞思的技术人员曾经给俺有email讲到过这个问题。

现代电...

好吧,一知半解,你在我面前说一知半解。
本帖由 iPhone7,2 客户端发布
[198 楼] 七棱镜 [资深泡菜]
15-2-24 04:49
往事作马 发表于 2015-2-23 22:15
不是这个意思。我是说50的14级光圈动态范围,14bit色深,是说明上有的。对应关系,我是第一次听说,不懂。

其实Credo 50的官方标注也不对,官方标注说是14bit色深(每个通道16384个色阶),但是如果你分析Credo 50的RAW文件,会发现是16bit的编码,每个通道有65536个色阶。

宽容度有多少档,RAW文件就至少需要多少bit的编码,而超出的部分就是无效的编码。

对于索尼CMOS传感器来说,像素级宽容度是接近14档,所以RAW文件至少需要14bit编码,超出的bit数都是噪音(比如IQ250、Credo 50这种16bit编码的,最低2bit都是噪音)。

对于戴尔莎CCD或者可达CCD来说,像素级宽容度是接近12档,所以RAW文件至少需要12bit编码,超出的bit数都是噪音(比如IQ280、P25+这种16bit编码的,最低4bit都是噪音)。
[197 楼] laopai [资深泡菜]
15-2-23 23:20
fangqizong 发表于 2015-2-23 18:20
按你的1+1=2的道理,14bit如何存放14EV的感光级?偏移量修正后还能确保14EV吗?
别告诉我你只学过信号处理,没从事过这类工作哦

14bit或者16bit已经包含了保险系数了。以前俺有帖子讲过当年柯达和飞思的技术人员曾经给俺有email讲到过这个问题。

现代电子技术,偏移量能够做到非常小。比量化噪声要小。

您那些一知半解的ee知识,已经没办法讨论了。打住。 本帖最后由 laopai 于 2015-2-23 23:24 编辑

[196 楼] fangqizong [泡菜]
15-2-23 22:47
往事作马 发表于 2015-2-23 22:15
不是这个意思。我是说50的14级光圈动态范围,14bit色深,是说明上有的。对应关系,我是第一次听说,不懂。

14级动态范围不代表14bit色深
[195 楼] 往事作马 [泡菜]
15-2-23 22:15
fangqizong 发表于 2015-02-23 10:15
酷图说明书上写明了1级感光量对应1bit位了?
不是这个意思。我是说50的14级光圈动态范围,14bit色深,是说明上有的。对应关系,我是第一次听说,不懂。
本帖由 Windows Phone_1.0.7.0 客户端发布
[194 楼] fangqizong [泡菜]
15-2-23 18:20
laopai 发表于 2015-02-23 05:44
对于学过信号处理和图像处理的人来说,这些是类似于1 1=2的道理。不需要讨论。

俺写了那么多,只是试图以浅显的方式解释给没上过这些...

按你的1+1=2的道理,14bit如何存放14EV的感光级?偏移量修正后还能确保14EV吗?
别告诉我你只学过信号处理,没从事过这类工作哦

本帖由 iPhone7,2 客户端发布
[193 楼] fangqizong [泡菜]
15-2-23 18:15
往事作马 发表于 2015-02-23 08:37
在酷图的说明书上,就是这么写的。并不是想当然。...


酷图说明书上写明了1级感光量对应1bit位了?
本帖由 iPhone7,2 客户端发布
[192 楼] 往事作马 [泡菜]
15-2-23 16:37
fangqizong 发表于 2015-2-22 20:44
我也是这么理解的,这方面还请七博士提供相关文章来说明,都不要想当然


在酷图的说明书上,就是这么写的。并不是想当然。
[191 楼] laopai [资深泡菜]
15-2-23 13:44
fangqizong 发表于 2015-2-23 13:17
单就ADC而言,无法说明1bit对应1级曝光量。
1:  假如ADC是14bit的0~5V点信号,0V代表全黑,5V代表全白,怎么才能证明0~5V刚好平均分隔了14级曝光量呢?不会是上帝事先就这样安排的吧?
2: CCD的ADC和CMOS的ADC均是14bit的吗?会不会都采用12bit的ADC呢?你可以说CMOS是采用14bit的ADC,那么CCD又是采用几bit的ADC?

所以,我想当然的认为,14bit不一定对应14级曝光量,也许ADC只有12bit。ADC信号是需要进行偏移量修正和比例修正的,即便是使用14bitADC,修正后无法达到14bit的完整数据,那么如何让14级曝光量和14bit对应呢?

CMOS的14bit也罢,CCD的16bit也罢,都只代表ADC采集到的电压值经过修正后转换到灰度等级的数据(理解为色阶),充其量只是与感光量有间接的关系,14bit不代表14级宽容度,16bit不代表16级宽容度。所以说16bit是噱头也是想当然。

对于学过信号处理和图像处理的人来说,这些是类似于1+1=2的道理。不需要讨论。

俺写了那么多,只是试图以浅显的方式解释给没上过这些科课的网友。您要是理解不了,只有两个可能:一个是俺语文水平低,没说清楚;或者是您语文水平低,理解不了。
[190 楼] 七棱镜 [资深泡菜]
15-2-23 13:35
fangqizong 发表于 2015-2-23 13:17
单就ADC而言,无法说明1bit对应1级曝光量。
1:  假如ADC是14bit的0~5V点信号,0V代表全黑,5V代表全白,怎么才能证明0~5V刚好平均分隔了14级曝光量呢?不会是上帝事先就这样安排的吧?
2: CCD的ADC和CMOS的ADC均是14bit的吗?会不会都采用12bit的ADC呢?你可以说CMOS是采用14bit的ADC,那么CCD又是采用几bit的ADC?

所以,我想当然的认为,14bit不一定对应14级曝光量,也许ADC只有12bit。ADC信号是需要进行偏移量修正和比例修正的,即便是使用14bitADC,修正后无法达到14bit的完整数据,那么如何让14级曝光量和14bit对应呢?

CMOS的14bit也罢,CCD的16bit也罢,都只代表ADC采集到的电压值经过修正后转换到灰度等级的数据(理解为色阶),充其量只是与感光量有间接的关系,14bit不代表14级宽容度,16bit不代表16级宽容度。所以说16bit是噱头也是想当然。

我在174楼已经贴出了证据表明曝光亮一档色阶翻一倍,既然您不信,那请也拍两张做个实验,而不是在这想当然。
[189 楼] fangqizong [泡菜]
15-2-23 13:17
laopai 发表于 2015-2-23 00:46
简单的回答:

首先,目前传感器的设计都是线性的。因此不考虑肩部和趾部。

传感器每个像素的受光量增加一倍(增加1ev),传感器的输出信号电压就高一倍,做模数转换就需要多1bit。

所谓单个像素的动态范围dr,就是传感器在受光量为零(全黑,但由于仍有暗电流或其他干扰而使得传感器的输出电压不会为0)到传感器过曝这之间的信号电压变化范围。这个信号电压变化范围正好和传感器像素的受光量变化是线性对应的。

信号电压进行模数转换时,信号的最大信噪比(过曝时的信号电压和全黑时的噪声电压之比)就决定了要用多少bit的模数转换器ADC。

所以,1ev的通光量变化导致1倍的信号电压变化需要模数转换时1bit的数码解析力。


单就ADC而言,无法说明1bit对应1级曝光量。
1:  假如ADC是14bit的0~5V点信号,0V代表全黑,5V代表全白,怎么才能证明0~5V刚好平均分隔了14级曝光量呢?不会是上帝事先就这样安排的吧?
2: CCD的ADC和CMOS的ADC均是14bit的吗?会不会都采用12bit的ADC呢?你可以说CMOS是采用14bit的ADC,那么CCD又是采用几bit的ADC?

所以,我想当然的认为,14bit不一定对应14级曝光量,也许ADC只有12bit。ADC信号是需要进行偏移量修正和比例修正的,即便是使用14bitADC,修正后无法达到14bit的完整数据,那么如何让14级曝光量和14bit对应呢?

CMOS的14bit也罢,CCD的16bit也罢,都只代表ADC采集到的电压值经过修正后转换到灰度等级的数据(理解为色阶),充其量只是与感光量有间接的关系,14bit不代表14级宽容度,16bit不代表16级宽容度。所以说16bit是噱头也是想当然。
[188 楼] laopai [资深泡菜]
15-2-23 00:46
fangqizong 发表于 2015-2-22 20:39
1bit对应1档感光度?是这样理解吗?谁问七博士?

简单的回答:

首先,目前传感器的设计都是线性的。因此不考虑肩部和趾部。

传感器每个像素的受光量增加一倍(增加1ev),传感器的输出信号电压就高一倍,做模数转换就需要多1bit。

所谓单个像素的动态范围dr,就是传感器在受光量为零(全黑,但由于仍有暗电流或其他干扰而使得传感器的输出电压不会为0)到传感器过曝这之间的信号电压变化范围。这个信号电压变化范围正好和传感器像素的受光量变化是线性对应的。

信号电压进行模数转换时,信号的最大信噪比(过曝时的信号电压和全黑时的噪声电压之比)就决定了要用多少bit的模数转换器ADC。

所以,1ev的通光量变化导致1倍的信号电压变化需要模数转换时1bit的数码解析力。
本帖最后由 laopai 于 2015-2-23 00:47 编辑

[187 楼] danyu123 [泡菜]
15-2-22 22:44
不用ND试试呢。
[186 楼] fangqizong [泡菜]
15-2-22 20:44
往事作马 发表于 2015-02-16 02:16
飞思280色深16bit,宽容度13级光圈。这是有区别的。250,色深低于16bit,估计在14bit,宽容度14级光圈。这是两个不...

我也是这么理解的,这方面还请七博士提供相关文章来说明,都不要想当然

本帖由 iPhone7,2 客户端发布
[185 楼] fangqizong [泡菜]
15-2-22 20:39
七棱镜 发表于 2015-02-16 02:28
您还是先研究下IQ280和IQ250的RAW文件再来发言吧,别想当然了。您真的懂什么叫bit数,什么叫宽容度,什么叫色阶,这三者之间...


1bit对应1档感光度?是这样理解吗?谁问七博士?
本帖由 iPhone7,2 客户端发布
[184 楼] takaya [资深泡菜]
15-2-22 14:32
laopai 发表于 2015-2-9 23:25
以下引自wiki的dynamic range词条:

In a transmission system, (Dynamic Range is) the ratio of the overload level (the maximum signal power that the system can tolerate without distortion of the signal) to the noise level of the system.

这段话是把DR计算简化了的。但是简化错了。按它的说法,这个世界上DR最大的是电灯开关,最小信号是0,最大220v,220/0=无穷大。。。。。。
这个简化是把最大有效信号和最大信号,把最小有效信号和最小信号(噪声)搞混了。
[183 楼] Bonnieazuresky [泡菜]
15-2-18 03:23
yongfei 发表于 2015-2-18 00:08
匆匆看了一下,因为那个国产8513扯的话题比较多,还是看不太明白:镜头的宽容度指标到底是否重要?是否存在着与CCD或CMOS之间的宽容度匹配问题?比方说,拍风光时,现在镜头的宽容度(理解为光线最强与最暗的通过量之比)很多时候都过大了,所以才需要加风光滤镜来减档(降低宽容度)?就好比用柔焦镜来降低锐度那样?

个人感觉镜头本身的宽容度所反映的和实际光线差不多的,比如,如果在镜头后面CCD成像器的位置放一面镜子,看见太阳光照射很强烈的话,这样光线条件下就会用爆掉CCD的宽容度。所以镜头有解析力,色彩贡献指数(CCI)等问题,而不同镜头之间宽容度(Dynamic range)本身的差异则可以忽略不计,都远远超过了后背所能记录的动态范围?

另外,在你发的那个三脚架帖子里,没看到有人提RRS脚架,特在此一提。


总之镜头影响很小就是了

三脚架帖子里,我觉得 RRS 碳纤维编织方法很丑这是主要原因,另外 GT3542LS 有别人改装的环可以架赤道仪,RRS 我不清楚,所以没有考虑

[182 楼] yongfei [陈年泡菜]
15-2-18 00:08
Bonnieazuresky 发表于 2015-2-17 20:39
镜头的配合使用对宽容度的影响,我在那个国产8513的帖子里面已经长篇论证啦
匆匆看了一下,因为那个国产8513扯的话题比较多,还是看不太明白:镜头的宽容度指标到底是否重要?是否存在着与CCD或CMOS之间的宽容度匹配问题?比方说,拍风光时,现在镜头的宽容度(理解为光线最强与最暗的通过量之比)很多时候都过大了,所以才需要加风光滤镜来减档(降低宽容度)?就好比用柔焦镜来降低锐度那样?

个人感觉镜头本身的宽容度所反映的和实际光线差不多的,比如,如果在镜头后面CCD成像器的位置放一面镜子,看见太阳光照射很强烈的话,这样光线条件下就会用爆掉CCD的宽容度。所以镜头有解析力,色彩贡献指数(CCI)等问题,而不同镜头之间宽容度(Dynamic range)本身的差异则可以忽略不计,都远远超过了后背所能记录的动态范围?

另外,在你发的那个三脚架帖子里,没看到有人提RRS脚架,特在此一提。

本帖最后由 yongfei 于 2015-2-18 00:18 编辑

[181 楼] Bonnieazuresky [泡菜]
15-2-17 20:59
七棱镜 发表于 2015-2-9 23:22
洗洗睡吧,明眼人以及懂摄影前后期的人,自然懂究竟信噪比和动态范围之间的关系是啥。

《信号》是啥?俺一路念到博士学位在Nature上※※文,也没把很多年前的信号处理课程教的基本概念给忘掉。


蕉叶真是无情
[180 楼] Bonnieazuresky [泡菜]
15-2-17 20:56
七棱镜 发表于 2015-2-9 08:12
看像素级别的动态范围,目前来说sensorgen上测试下来最强的是D810那块索尼IMX094传感器,能达到13.8EV,能接近用满尼康的14bit RAW。

IQ250与645Z等索尼CMOS的像素级别动态范围应该是和D800E类似,sensorgen给的数据是13.4EV,都是用14bit就可以足够。(虽然IQ250的RAW用了16bit编码,645Z的RAW用了14bit编码,但我不认为这两者性能上能有差异。)

至于CCD,像素级别的宽容度清一色的低于12EV,也就是说用超过12bit的RAW都是在浪费而已,号称16bit纯粹噱头,广告宣传需要而已(毕竟在D800出现之前,中画幅CCD的宽容度确实还是不错的)。


还再早些年,12 bit 的相机,那时候也还是用不满 12 bit,现在到 14,也算好几倍的进步了
[179 楼] Bonnieazuresky [泡菜]
15-2-17 20:53
七棱镜 发表于 2015-2-9 08:08
首先,您现在已经无法在任何飞思官方文档或者网页上看到他们说IQ250只有14bit。

其次,使用Raw Digger打开IQ250的文件,您可以看到色阶范围是0-65535,色阶值也可以有接近65535个不同的值,这是名副其实的16bit(如果您懂二进制的话),欢迎您来反驳这个铁证。

最后,现在如果看像素级别的宽容度,sensorgen对索尼IMX094传感器的测量结果表明宽容度能达到13.8EV,是可以用满接近14bit的RAW的。


Sensorgen 更新还挺好的,我之前看的时候还没有 D810 的数据呢,就是后背数据太少
[178 楼] Bonnieazuresky [泡菜]
15-2-17 20:49
七棱镜 发表于 2015-2-14 21:33
需要多少bit是由像素级别宽容度有多少档决定的,1bit对应1档的曝光量,当暗部信噪比过低,噪点淹没了暗部细节的时候,再多的bit数,低位也都是噪点可以扔掉。

CCD的像素级别宽容度都无法达到12档,所以用超过12bit都是浪费,用16bit纯粹噱头。


宽容度极限的时候,考验的还是 Tone Range 和 DR 的结合,只是 DR 为主,宽容度限制了 Bit 记录能力的发挥

但在正常曝光的时候,Tone range 比 DR 决定多得多,这时候才是高 Bit 的发挥之地

我倒着看的,马上哈 ...
[177 楼] Bonnieazuresky [泡菜]
15-2-17 20:39
七棱镜 发表于 2015-2-16 02:33
IQ250是16bit,本帖111楼已经贴过证据了,只不过索尼大法CMOS的像素级别宽容度只有13.8ev左右,所以也用不满超过14bit的raw,用16bit也是噱头。据我分析的raw文件来看,哈苏飞思的索尼大法CMOS都是16bit,宾得是14bit,只不过宾得不会因为少的这2bit而性能受影响。

镜头的宽容度我没有研究过,按理来说镜头不应该会对不同的光强有不同的响应。不应当把镜头的暗角与色温与宽容度混淆。


镜头的配合使用对宽容度的影响,我在那个国产8513的帖子里面已经长篇论证啦
[176 楼] xzchina [泡菜]
15-2-17 16:42
takaya 发表于 2015-2-15 13:59
既然楼主是DR,你完全可以试一下直接把12位+4位(浪费)的16BIT数据,一剪刀剪成12BIT看看是什么效果。


takaya ,朋友,你“空头YY”了那么多,能否给点实际的片子分析下?
[175 楼] 七棱镜 [资深泡菜]
15-2-16 12:00
yongfei 发表于 2015-2-16 10:59
其实,我倒不觉得这是想当然的说法,相反,令人揪心的是,我觉得这倒好像是飞思厂家以前一贯的官方说法。毕竟一般人不会用专门的开发工具去研究RAW,以至于流传至今。

你在研究完RAW之后,就这个16比特的问题和飞思厂家是否有过沟通?厂家是如何回复的?

对于普通摄影爱好者来说,现在的情况就好比是※※出现了两种声音,不知道应该听谁的。。。


我认为听信官方的广告词不靠谱,一切还是要自己研究说了算。bit数与宽容度的对应关系:
[174 楼] yongfei [陈年泡菜]
15-2-16 10:59
七棱镜 发表于 2015-2-16 10:28
您还是先研究下IQ280和IQ250的RAW文件再来发言吧,别想当然了。您真的懂什么叫bit数,什么叫宽容度,什么叫色阶,这三者之间什么联系吗?
其实,我倒不觉得这是想当然的说法,相反,令人揪心的是,我觉得这倒好像是飞思厂家以前一贯的官方说法。毕竟一般人不会用专门的开发工具去研究RAW,以至于流传至今。

你在研究完RAW之后,就这个16比特的问题和飞思厂家是否有过沟通?厂家是如何回复的?

对于普通摄影爱好者来说,现在的情况就好比是※※出现了两种声音,不知道应该听谁的。。。

本帖最后由 yongfei 于 2015-2-16 11:02 编辑

[173 楼] 七棱镜 [资深泡菜]
15-2-16 10:28
往事作马 发表于 2015-2-16 10:16
飞思280色深16bit,宽容度13级光圈。这是有区别的。250,色深低于16bit,估计在14bit,宽容度14级光圈。这是两个不同概念。

色深,又叫色位深度,含义是每个像素的颜色信息由RGB组合或者灰度值表示。这个方面,ccd的普遍比cmos的高。
宽容度,通俗点说,就是从死白到死黑的跨度。


您还是先研究下IQ280和IQ250的RAW文件再来发言吧,别想当然了。您真的懂什么叫bit数,什么叫宽容度,什么叫色阶,这三者之间什么联系吗?
[172 楼] 往事作马 [泡菜]
15-2-16 10:16
yongfei 发表于 2015-2-16 03:07
你发的这些帖子,让大家更加关注宽容度的问题。由此想到,一张照片的宽容度是否至少有三个因素决定:后背的宽容度已经谈得很多了,而光线本身也有光比大小的存在。现在仔细想想,镜头本身的宽容度应该是和实际光线差不多的,比如说盖上镜头盖,就是全黑状态;而如果在成像器位置放一面镜子的话,太阳光照射的强度也会表现得很强烈。所以镜头有解析力,色彩贡献指数等问题,而镜头之间宽容度本身的差异则可以忽略不计,都远远超过了后背所能记录的动态范围。

另外,现在较好的显示器能够体现的宽容度是否为10比特?这样,调片的任务之一是否就是把这14比特的信息压缩到显示器的范围之内进行合理显示?看来要显示一张大动态的完美照片,显示器本身的宽容度问题已经成为了瓶颈?


飞思280色深16bit,宽容度13级光圈。这是有区别的。250,色深低于16bit,估计在14bit,宽容度14级光圈。这是两个不同概念。

色深,又叫色位深度,含义是每个像素的颜色信息由RGB组合或者灰度值表示。这个方面,ccd的普遍比cmos的高。
宽容度,通俗点说,就是从死白到死黑的跨度。