有没有人自己在家部署了deepseek,分享一下体验
1490 9
[1 楼] nokia6600 [泡菜]
6-6 14:09
想学ai ,很多时候不知道如何下手。

在网上看到说,以deepsesk为基础平台,结合其它软件,就能构建出很多智能化的平台。

不知道是否有必要自己在家部署一套deepseek .

有经验的老师们可以分享一下。
[10 楼] bird3000 [陈年泡菜]
6-13 07:02
ddtx 发表于 2025-06-12 18:05
更新过的deepseek R1 8g 0528版还不错, ollama 直接拉R1 8g 默认的就是这个版本,多数方面媲美之前的R1 32g参数版, CPU跑速度都可接受

可以去试试那个qwen3 8B 版,有人测试过了,比蒸馏版好用。
[9 楼] ddtx [泡菜]
6-12 18:05
更新过的deepseek R1 8g 0528版还不错, ollama 直接拉R1 8g 默认的就是这个版本,多数方面媲美之前的R1 32g参数版, CPU跑速度都可接受
[8 楼] bird3000 [陈年泡菜]
6-12 06:53
老雾 发表于 2025-06-11 12:59
自己部署,一般能跑14b就不错了。
这种小规模的只能用于专用、特定领域的使用,比如客服机器人、编程助手。啥都想干还是官网、API才行,完全体不现实。
看电脑的配置了,24G显卡,64GRAM跑32BQ4~Q6速度还行,一般对话也没有问题。14B的模型搞一下翻译也不错。
[7 楼] 老雾 [泡菜]
6-11 12:59
自己部署,一般能跑14b就不错了。

这种小规模的只能用于专用、特定领域的使用,比如客服机器人、编程助手。啥都想干还是官网、API才行,完全体不现实。
[6 楼] wayyt [资深泡菜]
6-11 09:36
arondes 发表于 2025-06-07 12:29
我实测过 即使是古老的2080显卡 跑量化版的8B模型也是绰绰有余的 我还有一台普通的macbook air 跑14B量化模型也是很流畅的

2080跑14b也绰绰有余。
[5 楼] arondes [陈年泡菜]
6-7 12:29
我实测过 即使是古老的2080显卡 跑量化版的8B模型也是绰绰有余的 我还有一台普通的macbook air 跑14B量化模型也是很流畅的
[4 楼] hbsynut [泡菜]
6-6 22:53
没用的,消费级的用户用网上提供的就行,DeepSeek,腾讯元宝。。。自己搭建的按照DeepSeek标准,那起步就是百万以上(这还是零头),投喂资料(质量还得很高,好料出好品)就是一个巨大工程,调参数(一般人不会,就是会也没有那个精力),不间断维护都是无法想象的累。
结论,没有回报的Ai搭建最后都是一地鸡毛,拿来整合才是王道。
发布自 安卓客户端
[3 楼] cqwww8 [泡菜]
6-6 20:30
詹士邦 发表于 2025-06-06 17:32
4060独显,用ollama框架布了个deepseek r1 7b。勉强能跑动。但复杂的问题回答就像弱智。761b就别想了。所以,还是老老实实用deepseek api或者用硅基流动的ds api。价格也便宜。另外,最近deepseek慢慢变傻了,好...
这就不是玩AI的地方
[2 楼] 詹士邦 [资深泡菜]
6-6 17:32
4060独显,用ollama框架布了个deepseek r1 7b。勉强能跑动。但复杂的问题回答就像弱智。761b就别想了。所以,还是老老实实用deepseek api或者用硅基流动的ds api。价格也便宜。另外,最近deepseek慢慢变傻了,好多问题答非所问,或者回答遮遮掩掩。不好用了,现在改回用chatgpt和google的gemini了。