电脑上安装两张Nvidia Quadro P620, 能改善Lightroom里的AI降噪性能吗?
1332
17
|
[1 楼] duoduobear
[Canon论坛版主]
24-4-11 03:42
手里有2张Nvidia Quadro P620,把它们都装在一台电脑里。能比只用1张P620卡有更好的Lightroom里的AI降噪性能吗?
需要做什么额外设置吗? |
|
[18 楼] 鹰飞大地
[泡菜]
24-4-12 16:03
建议卖掉,换4080~~~
|
|
[17 楼] duoduobear
[Canon论坛版主]
24-4-12 13:24
蛙鼠 发表于 2024-04-12 12:05 听你的。先搞一个4060 laptop用着。这个应付lightroom的需求,我已经很满意了。 |
|
[16 楼] 蛙鼠
[泡菜]
24-4-12 12:05
duoduobear 发表于 2024-04-12 11:57 所以,你就别折腾了 换 4060 是正经 --- 如果需要 |
|
[15 楼] duoduobear
[Canon论坛版主]
24-4-12 11:57
蛙鼠 发表于 2024-04-12 10:10 Quadro P2000比我的P620高两个级别呢。 |
|
[14 楼] 蛙鼠
[泡菜]
24-4-12 11:53
ChK 发表于 2024-04-12 11:04 1060 都抬举它 但,信仰值钱 |
|
[13 楼] 蛙鼠
[泡菜]
24-4-12 11:52
久违99 发表于 2024-04-12 11:04 除了 Autodesk 之类信仰虔诚的,一般世俗的软件才不会去优化 Quadro |
|
[12 楼] ChK
[陈年泡菜]
24-4-12 11:05
久违99 发表于 2024-04-12 11:04 |
|
[11 楼] ChK
[陈年泡菜]
24-4-12 11:04
蛙鼠 发表于 2024-04-12 10:10 |
|
[10 楼] 久违99
[泡菜]
24-4-12 11:04
蛙鼠 发表于 2024-04-12 10:10 看来Q系的对ai降噪没有优化 起码不如游戏显卡 发布自 iOS客户端 |
|
[9 楼] 蛙鼠
[泡菜]
24-4-12 10:10
ChK 发表于 2024-04-12 09:55 我用 Quadro P2000 跑 PS24.5 Ai 降噪,6000 万像素要 4、5 分钟 一个开摄影工作室的同学(也是无鸡泡菜)去年装的 4060,十几秒 |
|
[8 楼] ChK
[陈年泡菜]
24-4-12 09:55
久违99 发表于 2024-04-12 09:39 |
|
[7 楼] ChK
[陈年泡菜]
24-4-12 09:52
duoduobear 发表于 2024-04-12 05:37 并行计算可以理解成CPU的多核,只不是数量大得多 特殊指令包括矩阵运算和着色渲染等,AI用的主要是矩阵运算功能 以上的根基是数据需要存放在显存中,所以显存大小决定一个AI模型能不能用,不过降噪模型本身不大,有几个GB的显存就够了(2GB实在太小了) 由以上知识可知:只有需要做大量矩阵运算且这些运算是可以并行的,GPU才能加速,如果每组数据的计算比较简单,需要频繁地在显存和内存之间交换数据,GPU的加速收益就很小。比如我尝试过用openCV来给图像做高斯模糊,用GPU加速和用多CPU并行的差别并不大,因为时间都耗在数据交换上了。 以上还可以推出另一个结论:只有每个数据块都能独立运算时,才能用多GPU加速,因为多个GPU之间的也有数据交换瓶颈的问题,如果需要不同的数据块之间高频地协调计算,多卡并行的收益就很小,这时需要把任务设计为尽量在每块数据上独立运算,降低数据块之间的高频协作需求才行。 AI降噪模型本身不大,所以,没有显存的刚需,也就不需要设计成多卡的复杂计算模式。唯一能做的,只是在处理多张图像时做并行,有几块GPU,就开几个模型实例,每个图片仍然在一个GPU上运行,这样的设计成本增加很少。但估计这种运用场景实在不多,开发者没动力来做。自己一定要做的话,可以为每个GPU开一个虚拟机,然后软件装两套独立使用,但这样需要两个软件的授权费,估计也没人这么折腾。 |
|
[6 楼] 久违99
[泡菜]
24-4-12 09:39
yifanker 发表于 2024-04-11 08:38 问一下 台机的3050能行吗? 发布自 iOS客户端 |
|
[5 楼] duoduobear
[Canon论坛版主]
24-4-12 05:37
yifanker 发表于 2024-04-11 08:38 我也查到Adobe Lightroom有声明不支持多GPU。后来再研究了一下多GPU处理的问题。发现还是有很多门道的。目前Nvidia CUDA处理多GPU也不是很完美,通常要编程者自己处理多GPU的问题,通常是编程者自行把不同的任务分担给不同的GPU或者一个任务中的不同部分分给不同的GPU,这样做很不自动化。而即使这样进行了程序设计也要小心,如果不仔细设计,有可能是不同的GPU依次运行分配给它们的任务,那么这也失去了多GPU的意义。图形处理的部分90年代末就解决了多GPU处理的问题,但在GPU科学计算上现在好像还不行。这可能是Adobe Lightroom不支持多GPU的根本原因。 说回Nvidia Quadro P620,它并不是主打高性能的显卡。但也是支持CUDA的。得分虽然低于2000分。但Adobe Lightroom说是要获得最佳性能,要使用得分超过2000的独立显卡。低性能显卡或许也可以支持lightroom。有机会我试试它在lightroom中的表现。虽然和高性能显卡比不了,但不知道和CPU比在lightroom降噪上有没有差异。 Adobe lightroom对GPU处理的最低要求是2GB显存。如果是4K显示器,那需要最少4GB显存。P620是2GB显存的显卡。 |
|
[4 楼] arondes
[陈年泡菜]
24-4-11 08:42
无用
|
|
[3 楼] Trompette
[泡菜]
24-4-11 08:41
P620 对 AI 没有作用,插 100 张还得靠 CPU 干活
|
|
[2 楼] yifanker
[资深泡菜]
24-4-11 08:38
官网里查询了,lr只支持单显卡加速,插多个卡,也只能指定一个用于加速。
Adobe Lightroom Classic GPU 常见问题解答 LR要求基准得分2000分以上的显卡加速,P620只有512个CUDA平行运算处理核心,基准得分1565,无法用于LR加速。 yifanker 编辑于 2024-04-11 08:50 |
换 4060 是正经 --- 如果需要
一个开摄影工作室的同学(也是无鸡泡菜)去年装的 4060,十几秒 