[147 楼] 佣书自雄
[资深泡菜]
14-2-11 15:24
418588326 发表于 2014-2-11 15:13  结论就是黑白分辨率提升 色彩分辨率下降。。。。。。。 这不就是我说的意思。适马X3精髓是什么?换句话说吧 这代X3更像MSK了 别给自己贴金了,你说的是: 实际绿色红色像素只有不到500万 细节表现可想而知。 真难为你一个数字模拟通吃的了。 因底层加大,信号质量大幅度提高,使更精确的AD转换成为可能,由原来的12bit升级为14-bit,你却说:细节表现可想而知?结论是怎么得出来的??? 你耿耿于怀底层削减的像素,说明你根本不懂色彩,借用别人的帖子回答你: 这个设计想法真的很有智慧,顶层分成四个小格,获取更多的像素信号,再分别和底下两层进行运算,等于把下面两层也都变成了四个像素,同时又能取得高感光度的效果。真是有才! 本帖最后由 佣书自雄 于 2014-2-11 15:28 编辑
|
[146 楼] 418588326
[泡菜]
14-2-11 15:13
佣书自雄 发表于 2014-2-11 14:59  不用争辩了,结论来了,亮度信号是第一层产生的:
感光元件为新一代APC-C画幅Foveon X3 Direct Image Sensor“Quattro”(23.5×15.7mm)。和此前的Merrill感光元件相比设计有了很大变动,每个像素分为三层,其中两层为记录R和G颜色信号的像素,有490万像素,另外一层记录B颜色信号以及亮度信息,共2000万像素。也就是“1:1:4”构造,因此才命名为Quattro(四分之一之意)。相比以前的感光元件,解析度提升30%,并成功削减了信息容量(有助于缩短存储与处理花费的时间)。
oveon X3感光元件的特点是利用光的波长特性,将硅片上集成三层光电转换器。传统的感光元件在水平面上分布红蓝绿三色传感器,进行色彩分离,色彩信息会有很大流失。而适马的技术是在垂直的三个面上进行色彩分离,颜色信息不会流失,也不需要光学低通滤镜。 结论就是黑白分辨率提升 色彩分辨率下降。。。。。。。 这不就是我说的意思。适马X3精髓是什么?换句话说吧 这代X3更像MSK了
|
[145 楼] dwannawb
[资深泡菜]
14-2-11 15:09
佣书自雄 发表于 2014-2-11 14:59  不用争辩了,结论来了,亮度信号是第一层产生的:
感光元件为新一代APC-C画幅Foveon X3 Direct Image Sensor“Quattro”(23.5×15.7mm)。和此前的Merrill感光元件相比设计有了很大变动,每个像素分为三层,其中两层为记录R和G颜色信号的像素,有490万像素,另外一层记录B颜色信号以及亮度信息,共2000万像素。也就是“1:1:4”构造,因此才命名为Quattro(四分之一之意)。相比以前的感光元件,解析度提升30%,并成功削减了信息容量(有助于缩短存储与处理花费的时间)。
oveon X3感光元件的特点是利用光的波长特性,将硅片上集成三层光电转换器。传统的感光元件在水平面上分布红蓝绿三色传感器,进行色彩分离,色彩信息会有很大流失。而适马的技术是在垂直的三个面上进行色彩分离,颜色信息不会流失,也不需要光学低通滤镜。 是呀,适马的这张图告诉我们,分辨率是有灰度图(左侧)决定的,色彩数据是由右侧三层数据提供的。
|
[144 楼] 崔海新
[泡菜]
14-2-11 15:09
|
[143 楼] 佣书自雄
[资深泡菜]
14-2-11 14:59
不用争辩了,结论来了,亮度信号是第一层产生的:
感光元件为新一代APC-C画幅Foveon X3 Direct Image Sensor“Quattro”(23.5×15.7mm)。和此前的Merrill感光元件相比设计有了很大变动,每个像素分为三层,其中两层为记录R和G颜色信号的像素,有490万像素,另外一层记录B颜色信号以及亮度信息,共2000万像素。也就是“1:1:4”构造,因此才命名为Quattro(四分之一之意)。相比以前的感光元件,解析度提升30%,并成功削减了信息容量(有助于缩短存储与处理花费的时间)。
oveon X3感光元件的特点是利用光的波长特性,将硅片上集成三层光电转换器。传统的感光元件在水平面上分布红蓝绿三色传感器,进行色彩分离,色彩信息会有很大流失。而适马的技术是在垂直的三个面上进行色彩分离,颜色信息不会流失,也不需要光学低通滤镜。 本帖最后由 佣书自雄 于 2014-2-11 15:03 编辑
|
[142 楼] KyleParker
[泡菜]
14-2-11 14:55
dwannawb 发表于 2014-2-11 14:50  我的专业与此相距甚远,是怀着一颗忐忑的心讨论的……  感觉您这比我专业多了,条理分明,有理有据。我也不是这个专业的,哈哈~
|
[141 楼] dwannawb
[资深泡菜]
14-2-11 14:50
KyleParker 发表于 2014-2-11 14:32  真不敢相信你就是搞这个的。。。推荐回去温习下高中物理里面的光那个章节,大学里面的内容过段时间再研究吧。 我的专业与此相距甚远,是怀着一颗忐忑的心讨论的……
|
[140 楼] KyleParker
[泡菜]
14-2-11 14:48
418588326 发表于 2014-2-11 14:21  适马自己已经标B是一层 代表蓝色 如果第一层是W 代表全色彩 白色 其次那个图 我的理解 是第一层吸收蓝色波长的光能 用于AD转换 绿色红色波长信息 透过此层达到第二层 第二层接收绿色光波能量,最后红色光波能量被吸收。 的确 第一层理论上是收到了全部波长 但是不代表这个全部波长都用来成像 实际上只有蓝色能量参与第一层成像。其他应该只是透过 不然后面的色彩根本没法准 因为第一层已经吸收了色彩 留给后面的信号非常弱 举个栗子吧,普通CMOS感光层也就是光电二极管厚度在2-3微米左右,某些特殊材料的可以达到零点几微米,同样是摄入纯红光,难道就要被完全穿透过去吗?那还怎么成像?而X3的感光层厚度在5微米,第一层再怎么薄也会对红光做出反应的。
|
[139 楼] dwannawb
[资深泡菜]
14-2-11 14:45
yanhe 发表于 2014-2-11 14:36  没有那么干净的滤波的,最后结果只能通过计算得到。
|
[138 楼] dwannawb
[资深泡菜]
14-2-11 14:44
418588326 发表于 2014-2-11 14:21  适马自己已经标B是一层 代表蓝色 如果第一层是W 代表全色彩 白色 其次那个图 我的理解 是第一层吸收蓝色波长的光能 用于AD转换 绿色红色波长信息 透过此层达到第二层 第二层接收绿色光波能量,最后红色光波能量被吸收。 的确 第一层理论上是收到了全部波长 但是不代表这个全部波长都用来成像 实际上只有蓝色能量参与第一层成像。其他应该只是透过 不然后面的色彩根本没法准 因为第一层已经吸收了色彩 留给后面的信号非常弱 1.你一直纠结在第一层接受的是W(白光),怎么是白光呢?全色光不是白光!是在不同的“点”由不同RGB分量组成的光! 2.如果只有蓝色造成第一层感光,那么莱卡单色相机Monochrome如何形成锐度极高的全色黑白图像? 3.没有任何一个频段的光在穿越媒介时不衰减!只是波长越短越容易衰减,波长越长越不容易衰减,但不是不衰减。 4.如果按照你的理解,我们眼睛的视网膜的视细胞也需要分层叠加,但事实是:感受明度的视杆细胞和感受红绿蓝三原色的总共四种细胞是排列在同一层上的。 5.同理,如果按照你的解释,MSK芯片上的微滤镜需要重新设计,蓝滤镜应该最薄,红滤镜应该最厚,绿滤镜介于中间。事实上不是的,三种滤镜是等厚的。
|
[137 楼] yanhe
[资深泡菜]
14-2-11 14:36
418588326 发表于 2014-2-11 14:21  适马自己已经标B是一层 代表蓝色 如果第一层是W 代表全色彩 白色 其次那个图 我的理解 是第一层吸收蓝色波长的光能 用于AD转换 绿色红色波长信息 透过此层达到第二层 第二层接收绿色光波能量,最后红色光波能量被吸收。 的确 第一层理论上是收到了全部波长 但是不代表这个全部波长都用来成像 实际上只有蓝色能量参与第一层成像。其他应该只是透过 不然后面的色彩根本没法准 因为第一层已经吸收了色彩 留给后面的信号非常弱 没有那么干净的滤波的,最后结果只能通过计算得到。
|
[136 楼] KyleParker
[泡菜]
14-2-11 14:32
418588326 发表于 2014-2-11 14:21  适马自己已经标B是一层 代表蓝色 如果第一层是W 代表全色彩 白色 其次那个图 我的理解 是第一层吸收蓝色波长的光能 用于AD转换 绿色红色波长信息 透过此层达到第二层 第二层接收绿色光波能量,最后红色光波能量被吸收。 的确 第一层理论上是收到了全部波长 但是不代表这个全部波长都用来成像 实际上只有蓝色能量参与第一层成像。其他应该只是透过 不然后面的色彩根本没法准 因为第一层已经吸收了色彩 留给后面的信号非常弱 真不敢相信你就是搞这个的。。。推荐回去温习下高中物理里面的光那个章节,大学里面的内容过段时间再研究吧。
|
[135 楼] dwannawb
[资深泡菜]
14-2-11 14:32
佣书自雄 发表于 2014-2-11 14:10  讲的太透彻了,佩服佩服 带来的另一个好处是,因镜头光线不是都是垂直入射的,尤其到边角,如果是1:1:1的像素排列,边缘斜射的光线穿过上层一个像素后,到下层可能就射到相邻的像素上了,造成后期计算的误差甚至错误。 用4:1:1可以很大程度减少这种错误,红心绿角现象可以得到改善。  正解  下层加大带来的另一个好处是,边缘分辨率提高,以及边缘色差减弱。DP1Q应该比DP1M的边缘要好得多! 本帖最后由 dwannawb 于 2014-2-11 14:32 编辑
|
[134 楼] dwannawb
[资深泡菜]
14-2-11 14:28
eazo 发表于 2014-2-11 14:20  MSK 是R:G:B 1:2:1
新X3的第一层会不会是 R:G:B 1:1:2。 R/G缺失的在下面两层补啊?实际就是 1000w的全像素。 MSK的像素单元前方是有分色滤镜的,因此一层得到的是颜色拼图块(马赛克),不是全色信息。X3芯片前方没有分色滤镜,获得的是全色信息。如果在MSK芯片下方再加第二层、第三层,毫无意义,因为这样的话,下方得到的色光与第一层完全一致,只是光量大大降低了。这种设计没有任何用处。
|
[133 楼] 418588326
[泡菜]
14-2-11 14:21
yanhe 发表于 2014-2-11 14:05  你前面说的都对,最后说的“你们说第一个像素是W像素 全色彩像素。又不够证据。”需要再考虑。
第一层确实包含RGB数据,第二层第三层也同样包含RGB数据。 但是他们比例不同。 建个简单的,列个方程组就能大致解出来RGB的值。 适马自己已经标B是一层 代表蓝色 如果第一层是W 代表全色彩 白色 其次那个图 我的理解 是第一层吸收蓝色波长的光能 用于AD转换 绿色红色波长信息 透过此层达到第二层 第二层接收绿色光波能量,最后红色光波能量被吸收。 的确 第一层理论上是收到了全部波长 但是不代表这个全部波长都用来成像 实际上只有蓝色能量参与第一层成像。其他应该只是透过 不然后面的色彩根本没法准 因为第一层已经吸收了色彩 留给后面的信号非常弱
|
[132 楼] eazo
[泡菜]
14-2-11 14:20
MSK 是R:G:B 1:2:1
新X3的第一层会不会是 R:G:B 1:1:2。 R/G缺失的在下面两层补啊?实际就是 1000w的全像素。
|
[131 楼] 佣书自雄
[资深泡菜]
14-2-11 14:10
dwannawb 发表于 2014-2-11 14:04  寒冬中,山木和人搅动了一池春水,荡漾不已
1.如何证明KyleParker说法是正确的呢?我们拿一块非MSK、非X3的芯片来说事,这块芯片就是莱卡的monochrome。 在这部划时代的相机中,莱卡将MSK芯片上的微滤镜统统地去除(红外截至滤镜还是存在的)形成了一层感光芯片,与X3对应,我们可以称他为X1。由于前方没有分色滤镜,因此它接受的是全色信息(还记得黑白胶片被称为全色胶片吧),即红绿蓝混色信息。相机然后从这一层中读取到数据。注意,这时它还不能成像,因为我们现在的显示屏的任何一个像素都是有RGB三个分量构成的,因此,莱卡程序将获得的单层数据分别填充到RGB中,此时数据量已经增加到原始数据的3倍了(假定芯片是8位,则此时一个像素变成了8+8+8=24位了,这就是所谓24位色)。然后把填充完成的RGB数组对应地送到到显示器的RGB单元中,我们这才看见了图像。在这幅图像中,因为R=G=B,因此图片是黑白灰度图。莱卡的这款相机由于是由一层接受的是全色信息,因此得不到彩色图像。
2.现在我们拿3部莱卡相机的3块芯片进行叠加,这就是sigma的X3了。然后第一层感受的是全色信息就不用解释了。单层芯片很薄,它不能把所有波段的光全部吸收,因此必定有光线穿越第一层 ... 讲的太透彻了,佩服佩服  带来的另一个好处是,因镜头光线不是都是垂直入射的,尤其到边角,如果是1:1:1的像素排列,边缘斜射的光线穿过上层一个像素后,到下层可能就射到相邻的像素上了,造成后期计算的误差甚至错误。 用4:1:1可以很大程度减少这种错误,红心绿角现象可以得到改善。 本帖最后由 佣书自雄 于 2014-2-11 14:20 编辑
|
[130 楼] yanhe
[资深泡菜]
14-2-11 14:05
418588326 发表于 2014-2-11 13:56  我工作就做数字信号处理 你这种人说不过 就扯其他的 没道理非说的自己很有道理!
这种方法很正确 因为你的原始数据RAW 只有4+1+1 *14 就这点信息。而原来X3输出RAW应该是4*3*12 这种无法回避的事实,被你说的理所当然
之前 10块钱 我证明你忽悠
4:2:2 指出你 你偷换概念 有损当无损
你们说第一个像素是W像素 全色彩像素。又不够证据。
黔驴技穷只好说攻击我的计算方式。诚然我的计算方式是不完美 但可以解释当中必然存在的损失。 你前面说的都对,最后说的“ 你们说第一个像素是W像素 全色彩像素。又不够证据。”需要再考虑。 第一层确实包含RGB数据,第二层第三层也同样包含RGB数据。 但是他们比例不同。 建个简单的,列个方程组就能大致解出来RGB的值。
|
[129 楼] dwannawb
[资深泡菜]
14-2-11 14:04
KyleParker 发表于 2014-2-11 10:52  我认为的X3原理是这样的,第一层吸收RGB全色波段,第二层吸收RG波段,第三层吸收R波段,然后通过算法分别得出RGB波段。当然这是我的理解,如果不对还请指正。  arthur999 发表于 2014-2-11 10:53  正确。  寒冬中,山木和人搅动了一池春水,荡漾不已  1.如何证明KyleParker说法是正确的呢?我们拿一块非MSK、非X3的芯片来说事,这块芯片就是莱卡的monochrome。 在这部划时代的相机中,莱卡将MSK芯片上的微滤镜统统地去除(红外截至滤镜还是存在的)形成了一层感光芯片,与X3对应,我们可以称他为X1。由于前方没有分色滤镜,因此它接受的是全色信息(还记得黑白胶片被称为全色胶片吧),即红绿蓝混色信息。相机然后从这一层中读取到数据。注意,这时它还不能成像,因为我们现在的显示屏的任何一个像素都是有RGB三个分量构成的,因此,莱卡程序将获得的单层数据分别填充到RGB中,此时数据量已经增加到原始数据的3倍了(假定芯片是8位,则此时一个像素变成了8+8+8=24位了,这就是所谓24位色)。然后把填充完成的RGB数组对应地送到到显示器的RGB单元中,我们这才看见了图像。在这幅图像中,因为R=G=B,因此图片是黑白灰度图。莱卡的这款相机由于是由一层接受的是全色信息,因此得不到彩色图像。 2.现在我们拿3部莱卡相机的3块芯片进行叠加,这就是sigma的X3了。然后第一层感受的是全色信息就不用解释了。单层芯片很薄,它不能把所有波段的光全部吸收,因此必定有光线穿越第一层到达第二层,甚至到达第三层。我们知道,光线在穿越媒介时,波长越长(越靠近红外端),穿透力越强,波长越短(越靠近紫外端),穿透力越弱。因此到达第二层的光线中蓝光已经非常微弱了,这时主要是绿光和红光。在穿越第二层后到达第三层的,主要就是可见光中最长的波长红光了。所以第一层接受的是全色信息,第二层接受的是红绿信息,第三层接受的是红色信息。sigma将第一层称为蓝色层,第二层称为绿色层,第三层称为红色层,是形象的说法,此时这种称呼是不正确的,什么时候正确呢?等到通过算法将三层数据计算后分出RGB三色分量来,这个称呼才正确。 3.从全色、红绿色、红色三组原始信息如何计算得到RGB分量?算法多种多样,五花八门。适马的幕后人员一直在探索最佳算法,每一次他们认为的进步都会带来一次固件的更新,但是有些人不认可他们的努力,认为老版本的固件似乎比新版本更好!但是注意这世上找不到一种最完美的分出三原色的算法,所有探索的算法可以无限接近三原色,但不能到达。因此所有的成像都不能绝对地还原到自然色彩。一个最原始最基础也是最糟糕的算法是,B=1-2-3,G=2-3,R=3。有兴趣的去搜一下老顽童的帖子,他对此有过深入探讨。 4.然后我们再来探讨叠加的3层上下感光单元对等的芯片(4:4:4),它的实际分辨率是否等同。它的标称分辨率是相等的,因为上下物理像素单元是准确对应的。在得出结论之前,我们得理解和接受下述事实:第一、光线组成中频段越复杂,照射物体后分辨率越高。理解这一点并不难,我们肯定都看过动物世界夜晚的红外录影,这个红外灯(频段单一)照射得到的影像与白炽灯(频段复杂)照射相比,是很糊的(分辨率低)。第二、光线强度与分辨率成正比。夜晚总是比白天模糊。第三、离焦平面越远,成像越模糊。在X3结构中,第一层接受的频段最复杂,第三层最单一;第一层接受的光线最多,之后大幅衰减,第三层接受的光线最少;第一层在焦平面上,第三层离焦平面最远。接受和理解了这三点,结论当然就是从第一层到第三层,实际分辨率在依次降低。假设第一层实际分辨率为2千万、第二层1千5百万、第三层1千万,那我们安排3层的物理感光单元为2千万、2千万、2千万,是不是不经济呢? 5.上下一一对应的物理感光单元不仅造成了不经济,因为下层的实际分辨率达不到物理感光单元的标称分辨率,而且还带来其他问题。伴随物理感光单元被分割的越来越小(高分辨率追求的结果),任何一个单元可接受的光子量也越来越少。这带来了两方面的影响:第一是高感越来越差,第二是量子效应越来越显著。于是在高ISO以及低照度下跳跃性的随机荷电产生的噪声被放大,给画面造成的结果就是画面变脏、煤渣绿、煤渣灰,色彩纯净度降低。 6.这样我们就理解了4:1:1的结构安排。首先,这种排列接近于各层的实际分辨率(无法做到物理单元与实际分辨率完全相等,最理想能做到4:2:1,但这给将来计算带来的麻烦比4:1:1大,象4:2.5:1.1这类的安排是完全无法实现的,由此带来的混乱后期根本无法解决)。第二,这种安排是下层感光面积加大,使得它能接受更多的光照,因为下层光线越来越弱。更多的光照带来的好处就是可以使物理感光单元荷电增多而离开随机涨幅的量子区,因此噪声减弱,颜色纯净度增加。SD14/15芯片的优势是色彩,纯净而浓郁,我们也都还记得,那些年攻击和讽刺适马的都是拿低分辨率来说事的;Merrill芯片的优势是分辨率,经常挂在口头诟病的是色彩不如前代。Quattro芯片就是将二者进行结合,发挥二者的优势,去除二者的弊端。 7. 我们的眼睛对黑白的分辨力高于彩色分辨力,所以Quattro芯片的4:1:1分层不仅与生理适应,也与物理感光适应。从第一层取得全色信息,决定像素的明度和对比度(分辨率),然后通过123层的数据与明度数据融合,计算出像素的RGB值(再次申明:最后得到的RGB值并不是三层最初读到的原始数据,MSK最后得到的RGB更不是原初的数据,MSK更夸张,需要把一个像素中缺失的2个数据通过临近单元的数据进行计算填充,这会带来污染,就像在宣纸上写字画画一样)。理论上讲,Quattro既具有SD14/15的纯净色彩,又具有Merrill的高分辨率。适马又进一步,你既可以得到1:1的锐利图像(第一层分辨率),又能以边长的1.414倍插值得到类似MSK的大画幅照片。所以Quattro是一部X3和MSK通吃的相机,你想得到什么照片,在SPP里都能任意驰骋! (此贴另外独立贴出)
|
[128 楼] 418588326
[泡菜]
14-2-11 13:56
KyleParker 发表于 2014-2-11 13:28  位数还能这样叠加。。。。。12BIT是2的12次方,14BIT是2的14次方。。。12BIT是1024级,14BIT是4096级。。。这个你搞清楚再说。。。
你这水平,在探讨下去没有意义,我不会再回你的问题了,笑死我了。。。 我工作就做数字信号处理 你这种人说不过 就扯其他的 没道理非说的自己很有道理! 这种方法很正确 因为你的原始数据RAW 只有4+1+1 *14 就这点信息。而原来X3输出RAW应该是4*3*12 这种无法回避的事实,被你说的理所当然 之前 10块钱 我证明你忽悠 4:2:2 指出你 你偷换概念 有损当无损 你们说第一个像素是W像素 全色彩像素。又不够证据。 黔驴技穷只好说攻击我的计算方式。诚然我的计算方式是不完美 但可以解释当中必然存在的损失。
|
[127 楼] 418588326
[泡菜]
14-2-11 13:45
我工作就是做数字信号处理 模拟信号转换 你和我说不可以! 本帖由安卓客户端发布
|
[126 楼] KyleParker
[泡菜]
14-2-11 13:28
418588326 发表于 2014-2-11 13:11  有本事就自己解释一下 适马新X3 怎么把一个84位信号 无损扩展到144位
别老扯别的。你之前借980那个就开始扯其他的 现在又继续扯其他的。你能解释的清楚怎么成像的就可以了 位数还能这样叠加。。。。。12BIT是2的12次方,14BIT是2的14次方。。。12BIT是1024级,14BIT是4096级。。。这个你搞清楚再说。。。 你这水平,在探讨下去没有意义,我不会再回你的问题了,笑死我了。。。
|
[125 楼] 佣书自雄
[资深泡菜]
14-2-11 13:26
418588326 发表于 2014-2-11 12:47  别扯人眼什么 拍出来的照片是可以放大的!!!你说损失掉的画质人眼识别不明显 但是一放大就明显了。没有的就是没有。视频信号那个为了降低传输率 不是无损压缩OK。可以理解为用60%数据 表现80%画质 但是还是损失20%,不是无损, 你以为全世界的科学家都是傻子?你最聪明? 连色彩基本原理都搞不明白就来胡扯! 既然算算术,算给你吧,底层面积大了4倍,2层就是16倍,按信号质量同比提高来说,相对老X3,用这种方法图像质量整整提高了16倍! 信号质量不高,空有像素有多大用,难道手机的4000万像素比单反的2000万像素图像质量高? 可以预见,扔掉一些对人眼没有多大意义的信号后,新X3不仅分辨率有所提高,而且图像质量也将有大幅度提高,将来,x3的优势不仅仅是分辨率,油润也是必须的。 本帖最后由 佣书自雄 于 2014-2-11 13:44 编辑
|
[124 楼] 418588326
[泡菜]
14-2-11 13:11
KyleParker 发表于 2014-2-11 13:07  既然你都说到算法上了,也就不是几句话能解释清楚的了。你先去了解一下这些算法以及在此基础上的高级算法之后,套用其公式来解你画的图试试。 有本事就自己解释一下 适马新X3 怎么把一个84位信号 无损扩展到144位 别老扯别的。你之前借980那个就开始扯其他的 现在又继续扯其他的。你能解释的清楚怎么成像的就可以了
|
[123 楼] 泰勒德顿
[禁言中]
14-2-11 13:11
真是高手,看到几张图片,一组数字,掐指一算就能推论出这么多,破解了适马的机密。 怎么诺贝尔的科学奖项就不给中国人呢?打抱不平。
|
[122 楼] xieqiao
[泡菜]
14-2-11 13:09
yanhe 发表于 2014-2-11 11:25  人眼对亮度比色度敏感,所以有YUV422, YUV420之类的
同时,在RGB三原色中,人眼对蓝色的细微差异更敏感,表现在同样的噪声水平,在蓝色中更容易感受到。 所以认为蓝色细节多,其实是利用了人眼的一个特点而已,算是取巧。 理论上,这个dp Q的色彩基调可能会有德味,会呈现类似徕卡相机那样美丽的蓝调。
|
[121 楼] KyleParker
[泡菜]
14-2-11 13:07
418588326 发表于 2014-2-11 12:29  解释不了就扯其他的!!!!
换父母一人十块 就是实际你只借了980-自己的10块 970等于卖鞋的钱。你却+10块!!!!!你这个只能忽悠小学生。你的十块本身就是父母借你的980里的10块 既然你都说到算法上了,也就不是几句话能解释清楚的了。你先去了解一下这些算法以及在此基础上的高级算法之后,套用其公式来解你画的图试试。
|
[120 楼] qingjun
[资深泡菜]
14-2-11 12:49
新一代X3传感器,采用了全新的1:1:4构造。明暗信息主要由上层记录,色彩信息则依旧由上中下三层分别撷取,楼主担心的是彩色分辨率变差
|
[119 楼] 418588326
[泡菜]
14-2-11 12:47
佣书自雄 发表于 2014-2-11 12:21  我解释的更清楚! 先学学色彩的基本原理而不是算算术,你走入了歧途。 这个根本不是什么新东西,原理人类上世纪前半夜解决了。 当你明白人类为什么不用4:4:4而要用4:2:2来得到高质量的色彩信号,一切都迎刃而解了,相信人类的智慧吧。 别扯人眼什么 拍出来的照片是可以放大的!!!你说损失掉的画质人眼识别不明显 但是一放大就明显了。没有的就是没有。视频信号那个为了降低传输率 不是无损压缩OK。可以理解为用60%数据 表现80%画质 但是还是损失20%,不是无损,
|
[118 楼] 418588326
[泡菜]
14-2-11 12:38
KyleParker 发表于 2014-2-11 12:15  你这个(4+1+1)*14 = 84bit 差点没笑死我,这就跟下面这个笑话是一样的,完全不是一个位面的东西你都能给说到一起。。。
向爸爸借了500,向妈妈借了500,买了双皮鞋用了970。剩下30元,还爸爸10块,还妈妈10块,自己剩下了10块,欠爸爸490,欠妈妈490,490 490=980。加上自己的10块=990。还有10块去哪里了呢? 你说这个算法有问题 可以你自己解释 怎么算 一步一步算出来! 现在这个位置 4个全像素 和1个红色 1个绿色像素 。你能得到任何值都是依靠这6个像素生成的模数转换后的数值 每个14位 你怎么能计算的出 4*3*12的原来X3结构 所得到的的数值?
|