摄像的画质和底片大小到底有没有关系?我感觉几乎没有关系
2231 22
[1 楼] hunternudt [资深泡菜]
10-12-2 21:58
本帖不讨论景深,只是说画质。
经常说大底在画质上有先天优势,那是针对照片而言。对于摄像,我觉得不是这个样子。
我会发现,底片比DC小很多的家用摄像机,成像效果却不差多少,但拍的照片惨不忍睹。
即使是全副CMOS,1080P的摄像的最好效果,也远远比不上1080P的电影,更远远差于照片缩成相同的大小。
什么原因?录像的截屏,感觉像100%观看,实际上就是这个原因。
看下面的图片,小的代表DV,底小,每个像素都用来照相。而现在的DC或者单反,其底片的像素远远多于1080P,怎么办?
一种办法是,把几个像素合并成一个像素,这就像把一张大图缩小成小图一样,图片画质会好很多。但这需要大量的运算,目前似乎没有家用相机能做到。
另一个办法是,在其中挑选部分需要的像素生成录像,其它的舍弃。这就是目前主流相机摄像的原理。
那么这样来的话,实际上舍弃了大量的有用信息,对大底是严重的浪费,所以很大底的机子摄像却不比非常小的DV效果好多少。
因此,不考虑镜头和工艺水平,像素密度越小的机器,摄像的画质最好。
如果几年后芯片发展,可以做到缩图摄像,那时大底的优势就会太明显了,片子绝对超过现在压缩的1080P了。
各位朋友,我这个看法对不对?
[23 楼] 剑绪 [泡菜]
10-12-6 20:22
低光照情况 还是大底好。
[22 楼] 壮士 [泡菜]
10-12-6 16:15
画质确实是这样的,因为现在的相机cpu运算速度不够,不可能把全部裸数据都应用来压缩视频,这点是肯定的。但问题是摄像效果不能仅看画质,视角和景深也是非常重要的。就好象拍照一样,很多人冲着单反去并不是因为画质,而是因为视角和景深效果。
[21 楼] qingkong [资深泡菜]
10-12-6 15:50
原文由 hunternudt 在2010-12-05 21:34发表

其实我上个帖子已经同意你的说法,即缩图运算量小。
但你也说过,前期数据采集运算量大,我认为硬件做不到实时。
所以,我认为硬件实际上才是抽取了部分像素,而不是利用周边像素进行计算(即最烂的缩图算法)。


我觉得也是
估计现在的视频都是这么出来的 数据流量小些。
[20 楼] hunternudt [资深泡菜]
10-12-5 21:34
原文由 lifengdp 在2010-12-05 17:14发表

视角的问题是指5D2利用了全部感光芯片面积来成像,nex照相机焦距系数为1.5x,但视频拍摄时变成了1.8x,这是因为视频拍摄时只用了感光芯片中间的一块来成像。

另外相机的处理芯片可不是CPU,类似专用硬件编码解码专用芯片,关键是要支持某类算法,有了算法支持,速度就不是问题,5D2芯片只要支持缩小算法,这点运算量 ......


其实我上个帖子已经同意你的说法,即缩图运算量小。
但你也说过,前期数据采集运算量大,我认为硬件做不到实时。
所以,我认为硬件实际上才是抽取了部分像素,而不是利用周边像素进行计算(即最烂的缩图算法)。
[19 楼] lifengdp [泡菜]
10-12-5 17:14
原文由 hunternudt 在2010-12-05 15:56发表

关于视角变化,不能说明任何问题。因为取样的点是离散的,不是聚集在一起,这样视角不会变化。

第二个问题,当然可以看!我没有5D2,我看过网上的视频截图,感觉和原图100%的画质差不多。
你帮我试试100%原图的5D2图片和视频截图,差别是多少。当然要用1080P的情况下。
640*480P不能做参考,因为很可能是1920*1080 ......


视角的问题是指5D2利用了全部感光芯片面积来成像,nex照相机焦距系数为1.5x,但视频拍摄时变成了1.8x,这是因为视频拍摄时只用了感光芯片中间的一块来成像。

另外相机的处理芯片可不是CPU,类似专用硬件编码解码专用芯片,关键是要支持某类算法,有了算法支持,速度就不是问题,5D2芯片只要支持缩小算法,这点运算量不成问题。举例:5D2的视频编码格式是H.264,H.264视频除了关键帧其他帧的图像都要靠和关键帧的偏移差异计算出来,而且是实时的,编码时这个计算量是相当大的(关键帧视画面而定,变化不大时几秒钟才有一个关键帧),比缩图大多了,5D2可以完成,但是换成其他编码如xvid,那怕运算量再小,5D2都不能完成,因为硬件不支持这个编码算法。

如果要验证,其实就可以用你的那个网格图原理来做,找一张5D2/A55/GH1的照片原图,再抽取成为1080P,注意不能用图像处理软件来直接缩小,因为图像处理软件最差的算法都是用周边的邻近像素来计算后缩图的。

难度主要在于前端的实时采样和传输这块,数据量很大。
[18 楼] hunternudt [资深泡菜]
10-12-5 15:57
原文由 lifengdp 在2010-12-05 13:12发表

主要是数据采样对感光芯片和处理器的要求高,至于固定算法缩图计算,硬件实现是很容易的。


那么现有的处理器能不能对整个面积的像素实时采样并缩图呢?
我觉得做不到。
[17 楼] hunternudt [资深泡菜]
10-12-5 15:56
原文由 lifengdp 在2010-12-05 15:09发表
楼主还可以仔细想一下,以5D2为例。

5d2在视频拍摄时和拍照相比视角并没有变化,也就是说视频拍摄时感光芯片片幅(利用面积)相比拍照并未变化。

5D2可以拍摄640x480P视频的,在利用全部感光芯片成像的情况下(视角无改变),如果没有采样后缩图的过程,而是直接从5D2感光芯片5616×3744像素点中抽取640x480像素,图像 ......


关于视角变化,不能说明任何问题。因为取样的点是离散的,不是聚集在一起,这样视角不会变化。

第二个问题,当然可以看!我没有5D2,我看过网上的视频截图,感觉和原图100%的画质差不多。
你帮我试试100%原图的5D2图片和视频截图,差别是多少。当然要用1080P的情况下。
640*480P不能做参考,因为很可能是1920*1080缩图,毕竟这个计算量很小,数据获取也很小。

[hunternudt 编辑于 2010-12-05 15:59]
[16 楼] lifengdp [泡菜]
10-12-5 15:09
楼主还可以仔细想一下,以5D2为例。

5d2在视频拍摄时和拍照相比视角并没有变化,也就是说视频拍摄时感光芯片片幅(利用面积)相比拍照并未变化。

5D2可以拍摄640x480P视频的,在利用全部感光芯片成像的情况下(视角无改变),如果没有采样后缩图的过程,而是直接从5D2感光芯片5616×3744像素点中抽取640x480像素,图像还能看吗?
[15 楼] lifengdp [泡菜]
10-12-5 13:12
原文由 hunternudt 在2010-12-04 22:12发表

谢谢解答。
我图中画的是一种简单的方法,或者是对处理器要求最低的方法。
综合全图信息的算法运算量巨大,我估计你说的GH1,应该不是全图缩小的方法。


主要是数据采样对感光芯片和处理器的要求高,至于固定算法缩图计算,硬件实现是很容易的。
[14 楼] hunternudt [资深泡菜]
10-12-4 22:12
原文由 lifengdp 在2010-12-04 10:12发表
楼主立论的基础在于此:

“一种办法是,把几个像素合并成一个像素,这就像把一张大图缩小成小图一样,图片画质会好很多。但这需要大量的运算,目前似乎没有家用相机能做到。”

“目前似乎没有家用相机能做到”是不准确的。

前端采集是指相机怎样将感光芯片得到的图像信息变为1080P的单帧图像,这些相机都是上千万像 ......


谢谢解答。
我图中画的是一种简单的方法,或者是对处理器要求最低的方法。
综合全图信息的算法运算量巨大,我估计你说的GH1,应该不是全图缩小的方法。
[13 楼] hunternudt [资深泡菜]
10-12-4 22:11
原文由 lenovo1709 在2010-12-04 11:11发表
lz你被你画的格子误导了

你找张照片 把你这个格子蒙上去 然后只取那几个红蓝点 拼一起

估计鬼都认不出来照片上是个啥了-_-


一张大图缩小成小图是怎么搞的我没有太研究
但绝对不是我图中这样。
实际上,我们说像素越大,则成像越好。但像素越大,其里面包含的颜色也会越来越多啊。
总之,一张大图缩成小图会锐利很多,怎么搞的不清楚,但肯定是综合了几个像素的信息。
[12 楼] qingkong [资深泡菜]
10-12-4 12:36
原文由 lifengdp 在2010-12-04 10:12发表
楼主立论的基础在于此:

“一种办法是,把几个像素合并成一个像素,这就像把一张大图缩小成小图一样,图片画质会好很多。但这需要大量的运算,目前似乎没有家用相机能做到。”

“目前似乎没有家用相机能做到”是不准确的。

前端采集是指相机怎样将感光芯片得到的图像信息变为1080P的单帧图像,这些相机都是上千万像 ......


如果是全图缩小 那么这个和大底或者小底是没关系的,只与像素数有关系
只要各类底们可以保证足够帧数的原始数据,那么后期缩图就只与处理器能力有关。
[11 楼] lenovo1709 [泡菜]
10-12-4 11:11
lz你被你画的格子误导了

你找张照片 把你这个格子蒙上去 然后只取那几个红蓝点 拼一起

估计鬼都认不出来照片上是个啥了-_-
[10 楼] 尤文蒂尼 [泡菜]
10-12-4 10:23
LZ应该在标题前加上“单反”二字,
否则会被人抓小辫子。
其他基本同意。
[9 楼] lifengdp [泡菜]
10-12-4 10:12
楼主立论的基础在于此:

“一种办法是,把几个像素合并成一个像素,这就像把一张大图缩小成小图一样,图片画质会好很多。但这需要大量的运算,目前似乎没有家用相机能做到。”

“目前似乎没有家用相机能做到”是不准确的。

前端采集是指相机怎样将感光芯片得到的图像信息变为1080P的单帧图像,这些相机都是上千万像素的,而1080P是200万像素左右,如果在photoshop中将一张千万像素的图像缩小为200像素,photoshop当然不会直接从原图中进行抽取,否则结果会惨不忍睹,photoshop会采取二次立方、三次立方或者其他一些算法从原图中计算出200万像素的图像。

在单反视频中也是这种情况,不过这种计算过程是实时的,每秒30P,数据采集和计算工程量巨大,可以看到感光芯片越大,采集和计算量也越大。如果机器的芯片处理速度有限,采取缩减原始数据量来保证效率是可以接受的,但是计算是必须的。5D2采用了全幅感光芯片抽取数据再计算缩小的方法,nex是截取了感光芯片※※的数据再计算缩小的方法,而A55和GH1都采用全部的感光芯片来进行计算,K5这块不明。

[lifengdp 编辑于 2010-12-04 10:14]
[8 楼] shenfz [泡菜]
10-12-4 09:15
至少背景虚化上单反和DV是有很大差别的
[7 楼] hunternudt [资深泡菜]
10-12-4 09:12
怎么没有人关心这个问题?
[6 楼] hunternudt [资深泡菜]
10-12-2 22:40
原文由 炸弹一样安静 在2010-12-02 22:26发表
135底片和8*10底片同样放大到60寸的话是一个概念么?
底片放大率是不同的


照相才有放大率
视频没有放大率呀
两者都是1:1,至少普通的相机是这样的。
[5 楼] hunternudt [资深泡菜]
10-12-2 22:39
原文由 kingson 在2010-12-02 22:19发表
视频也是大底的好,无敌兔拍出来的视频比其他小底DC拍的感觉画质的确是要强的。


5D2像素密度小啊
如果小DC也做成1920*768的像素,那拍视频应该相当不错
[4 楼] 炸弹一样安静 [资深泡菜]
10-12-2 22:26
135底片和8*10底片同样放大到60寸的话是一个概念么?
底片放大率是不同的
[3 楼] vanBeethoven [资深泡菜]
10-12-2 22:25
摄像机跟照相机一样,块头大的好,价钱贵的好。 ^_^
[2 楼] kingson [资深泡菜]
10-12-2 22:19
视频也是大底的好,无敌兔拍出来的视频比其他小底DC拍的感觉画质的确是要强的。