咨询个AI降噪使用显卡问题
20074
413
[205 楼] 鹰飞大地
[泡菜]
23-9-12 17:41
w狼毒花 发表于 2023-09-12 17:38 其实还有个好处,那就是4070凉快安静!!!,比2080TI安静和凉快多了 |
[204 楼] w狼毒花
[泡菜]
23-9-12 17:40
MM7 发表于 2023-09-10 21:05 |
[203 楼] w狼毒花
[泡菜]
23-9-12 17:38
鹰飞大地 发表于 2023-09-12 11:46 |
[202 楼] w狼毒花
[泡菜]
23-9-12 17:36
maxuguang 发表于 2023-09-12 13:15 4070影驰金属大师我4350买的,不用5000。 |
[201 楼] 鹰飞大地
[泡菜]
23-9-12 15:43
maxuguang 发表于 2023-09-12 13:15 2080TI也不便宜啊 |
[200 楼] maxuguang
[泡菜]
23-9-12 13:15
鹰飞大地 发表于 2023-09-12 11:46 ![]() |
[199 楼] 鹰飞大地
[泡菜]
23-9-12 11:46
楼主选4070没问题了~~~
|
[198 楼] MM7
[资深泡菜]
23-9-12 10:13
chenstudio 发表于 2023-09-12 09:52 是的,5秒内快感 |
[197 楼] chenstudio
[泡菜]
23-9-12 09:52
maxuguang 发表于 2023-09-12 00:33 不差钱或者需要ARC降噪又对时间敏感,4090不能少 |
[196 楼] maxuguang
[泡菜]
23-9-12 00:33
chenstudio 发表于 2023-09-11 23:10 ![]() |
[195 楼] chenstudio
[泡菜]
23-9-11 23:10
maxuguang 发表于 2023-09-11 21:44 试过了,我记得预估是约60秒,实际四十多,Z7II RAW |
[194 楼] maxuguang
[泡菜]
23-9-11 21:44
chenstudio 发表于 2023-09-11 13:03 能否用您的750做个ACR的测试呢?给大家提供一个参考 ![]() |
[193 楼] chenstudio
[泡菜]
23-9-11 13:03
maxuguang 发表于 2023-09-10 23:21 为避免很多网友断章取义,先重申是在说TOPAZ 的降噪,而且不是全程,是最后按apply的运算时间。我之前写得很清楚了,前面分析过程比较慢,甚至慢于rx580,但分析完开始运算就很快,如果是批量且用相同模型就非常快。即使中间换过其他模型,只要不关闭软件,再重新用之前用过模型,也还是跟批量一样快。至于为什么开始分析这么慢,我也不知道,我只是根据多次测量的结果得出的经验。 |
[192 楼] chenstudio
[泡菜]
23-9-11 12:53
MM7 发表于 2023-09-11 08:38 看清楚,不是全程,就是最后按apply的运算时间。用PS对比是没有可比性的,我们现在讨论是TOPAZ AI降噪,应用都不一样,至于和nvidia对比可以参考外国网友测试。 4090的身价如果沦落到要和ARC 750掰手腕就已经输了。 chenstudio 编辑于 2023-09-11 12:55 |
[191 楼] Tery
[资深泡菜]
23-9-11 12:21
2秒那个数据应该不是ACR的AI降噪数据,不是一个软件不能放一起比。
发布自 iOS客户端 |
[190 楼] MM7
[资深泡菜]
23-9-11 08:38
chenstudio 发表于 2023-09-10 22:46 |
[189 楼] maxuguang
[泡菜]
23-9-10 23:21
chenstudio 发表于 2023-09-10 22:46 |
[188 楼] chenstudio
[泡菜]
23-9-10 22:46
maxuguang 发表于 2023-09-10 16:42 750,运算非常快,但准备时比较慢,看硬件消耗只在用纯CPU,而且优化不是很好,我24线程整体占用率才8%左右,每个线程都有一点负载,运算时才调用GPU。如果批量降噪,用同一个模型就节省准备的时间,所以会很快,3-4千万像素级别大概2秒运算完成。 我用的amd cpu,不知道intel cpu是否有加成 chenstudio 编辑于 2023-09-10 22:48 |
[187 楼] MM7
[资深泡菜]
23-9-10 21:05
用4080吧,不贵,当然要性能好最好是4090,PS AI降噪4500万像素的RAW 5秒。
![]() |
[186 楼] maxuguang
[泡菜]
23-9-10 16:42
chenstudio 发表于 2023-08-16 10:16 |
[185 楼] maxuguang
[泡菜]
23-9-10 16:35
maxuguang 发表于 2023-09-06 01:01 |
[184 楼] maxuguang
[泡菜]
23-9-6 01:01
意思就是单说AI降噪,intel的ARC A770是最佳选择呗?
|
[183 楼] chenstudio
[泡菜]
23-8-19 01:39
另外,今晚测试,观察到topaz主要用到intel gpu的computer单元,应该就是xmx单元,功耗由几十w到140w不等,因为时间很短就完成,资源管理器里面只有一个小峰。
而acr则是使用3d单元,应该是浮点单元,功耗到180w,3d单元负载基本100%。 看来这代intel gpu的ai单元效率不错,就是不能全程加速,很多工作只能cpu完成。 chenstudio 编辑于 2023-08-19 01:46 |
[182 楼] chenstudio
[泡菜]
23-8-18 20:30
canonguy 发表于 2023-08-17 21:31 肯定4070强,intel驱动尚待继续完善,我用photo ai测试,真正计算时的确快,但前面分析图像等操作却用的cpu(用580就基本可以全程gpu加速),所以反而比较慢。 如果用LR/ACR就没有太多分析工作,直接开干,速度在千元价位(全新卡价格算)没有对手 |
[181 楼] tianman
[泡菜]
23-8-18 19:12
Trompette 发表于 2023-08-18 08:09 对于现有的AI修图来说,8G只是能用而已。实际还是比较紧张的。 如果批量修不全相同风格的图像,就会有部分显存“碎片”被占用,从而造成批量处理速度减慢的情况。 有人说同样的图像ACR对显卡的要求比Topaz的要求高,主要原因就是因为ACR的学习模型比较大。 随着技术的进步,如果学习模型更加复杂的话,很难说今后8G显存就够用。(想想当年所说的8G内存够用的观点。。。) 另外,假如修图软件支持的话,大显存可以同时跑2个或更多的学习模型(人工智能软件中常有这样的操作),此时优势会更大。 |
[180 楼] Trompette
[泡菜]
23-8-18 18:12
metaldz 发表于 2023-08-18 16:41 我的贴中都是我的观点和事实,不曾用过一个“你”字,更没有对人的评论(现在回想,并非刻意为之) 而你的回复没有一点你关于Ai的观点和事实,倒用了14个“你”字,外加各种 “龌龊,玩阴的,不敢明说,不靠谱” 怪我引贴不慎,求兄高抬贵手 |
[179 楼] metaldz
[泡菜]
23-8-18 16:41
Trompette 发表于 2023-08-18 08:09 你不明确说出你的观点, 你连观点都不敢明说 就说一堆解释(目的是着急的显示自己懂,自嗨)太不靠谱(指你说话,而非你的知识,你的知识我比较认同)了 你要像炫耀你自己 没必要通过踩一下我当契机,你就光明正大地说自己多么的懂多么的牛逼 我佩服你 你这种玩阴的 龌龊自嗨 没意思 metaldz 编辑于 2023-08-18 16:43 |
[178 楼] 水炮
[陈年泡菜]
23-8-18 11:03
娲姝 发表于 2023-08-16 21:57 那你就买3070呗,我拍照根本不用Raw,纯粹就是测试,也不从事摄影工作,纯粹爱好,显卡主要还是用来玩。4060最大的特点就是低功耗,巫师3 2k最高特效几个小时下来,显卡温度始终40多度。我是以买车的理念选择的,同样排量,差不多价格,老款和新款一个油耗10,一个油耗5,你会选哪个 ![]() 发布自 安卓客户端 |
[177 楼] Tery
[资深泡菜]
23-8-18 10:08
这个问题暗房版块已经讨论了几个月了。
到目前为止用于AI降噪,8G显存够用了。已经有泡菜做过实验,同一台电脑,3060Ti AI降噪用时短于306012G 我自己的3060Ti,AI降噪 用于4500万像素的raw用时15秒,用于1亿像素的raw用时35秒。 |
[176 楼] Trompette
[泡菜]
23-8-18 08:09
metaldz 发表于 2023-08-18 04:53 非也非也 显存大小只有门槛之分,够门槛后才能载入Ai模型。 而Ai性能主要靠GPU输出,显存够用即可,再加显存对性能没有帮助 正常需要的显存容量瓶颈差不多是下面的关系 显存到了这个水平,就不会是性能瓶颈(要选择核心多,频率高的GPU) 大部分2k游戏,8G Ai 修图,12G 4k 游戏,16G Ai 生成图像,12G - 20G 生成式Ai,深度学习,16G 起(7b半精度版),48G(13b全精度版刚好不够),80G x2(开源最大的70b半精度版) 从目前Ai 模型的大小看,其实32G 是很好的甜点(能跑7b全精度,13b半精度),这两个24G都不行 48G 太贵,32G不能跑的模型,48G一样跑不了(全精度13b要52G,8精度70b要70G) |