自己弄能跑起来GPU都不错
4134
7
|
[1 楼] 开山鼻祖
[禁言中]
3-23 15:40
跑大模型太需要资源而一般都没有~
|
|
[8 楼] 开山鼻祖
[禁言中]
3-25 21:44
使用中,不过没快多少~ 便宜显卡~
根据提供的 NVIDIA-SMI 输出,可以明确以下几点: GPU 处于高负载状态 GPU-Util 显示 100%,表明 GPU 正在满负荷运行Memory-Usage 为 1846MiB / 2048MiB,显存占用率达 90%Power Usage 57W 接近 75W 的 TDP 上限Python 进程正在占用 GPU 两个 Python 进程(PID 58646 和 58754)分别占用 153MiB 和 1647MiB 显存进程类型为 C (Compute),表明正在执行计算密集型任务代码是否实际使用 GPU? 您的代码中使用了 PyTorch 和 facenet_pytorch默认情况下,如果安装了 CUDA 版本的 PyTorch,模型会自动尝试使用 GPU |
|
[7 楼] 开山鼻祖
[禁言中]
3-25 19:03
开山鼻祖 编辑于 2025-03-25 19:07 |
|
[6 楼] 开山鼻祖
[禁言中]
3-25 00:48
。。豆包因为🈶抖音视频,所以查个啥都有视频看,这也是其他厂家不具备的优势。腾讯(还有百度)虽然有视频,但是给看电视的观众用的,短视频都没人看所以也不好意思示众。
开山鼻祖 编辑于 2025-03-25 00:53 |
|
[5 楼] 开山鼻祖
[禁言中]
3-25 00:47
。。
发布自 iOS客户端 |
|
[4 楼] 开山鼻祖
[禁言中]
3-24 23:36
r1 项目目录预览 - DeepSeek-R1:探索新一代推理模型,DeepSeek-R1系列以大规模强化学习为基础,实现自主推理,表现卓越,推理行为强大且独特。开源共享,助力研究社区深入探索LLM推理能力,推动行业发展。【此简介由AI生成】 - GitCode
说明该仓库为一个超大型模型(如 DeepSeek-V2-Chat 的扩展版本),通过分片存储(163 个文件)降低单文件大小,便于分布式加载。若需下载完整模型,需确保本地磁盘空间至少为 642 GB(考虑压缩和缓存)。 这只是存储要求,后面开算还需要多少资源无法预测。 开山鼻祖 编辑于 2025-03-25 00:05 |
|
[3 楼] 开山鼻祖
[禁言中]
3-24 23:27
老高 发表于 2025-03-24 17:48 来个开源模型资源需求(链接网页(可下载)文件部分描述扔给豆包综合)~DeepSeek-V2-Chat . 模型库 根据文件列表中的信息,总大小计算如下: 总文件大小约 471.28 GB (主要由 55 个分片模型文件构成,其他文件占比极小) 关键文件分析模型分片文件(55 个) 前 5 个文件:每个约 8.59-8.60 GB中间 49 个文件:每个约 8.60 GB最后 1 个文件:6.89 GB总和:约 471.27 GB其他文件 配置文件(如config.json)、代码文件(如modeling_deepseek.py)等,总大小仅约 7.39 MB(可忽略不计)。说明该仓库为一个大型模型(如 DeepSeek-V2-Chat)的存储库,通过分片存储(55 个文件)降低单文件大小,便于传输和加载。若需下载完整模型,需确保本地磁盘空间至少为 472 GB(考虑压缩和缓存)。 开山鼻祖 编辑于 2025-03-24 23:32 |
|
[2 楼] 老高
[泡菜]
3-24 17:48
都需要什么资源呢?普通服务器加上一块4060,是不是就可以跑起来最基本的了?
|