25万块GPU堆出350亿估值:AI“算力黄牛”终成资本市场新宠?
3563
8
[1 楼] 开山鼻祖
[老坛泡菜]
3-13 14:11
25万块GPU堆出350亿估值:AI“算力黄牛”终成资本市场新宠?
CoreWeave主要向客户提供数据中心服务,客户能够借助其数据中心开发AI模型,而数据中心配备的GPU均来自英伟达,这便是其核心业务模式——也称GPU租赁。 在CoreWeave列出的诸多风险因素中,极少数客户贡献大部分营收这一情况不容忽视。2024年微软为CoreWeave贡献了62%的营收,另一家未公开名称的公司贡献了15%。除这两家企业外,CoreWeave的客户还包括英伟达、Meta、IBM、Cohere和Mistral等行业知名企业。当CoreWeave与客户签订长期合同时,采用的是“买断式”机制,即无论客户是否实际使用预留容量,都需支付一定金额的费用。此外,客户还需预先支付一笔可观的款项,以帮助CoreWeave垫付部分基础设施建设资金,确保合同的顺利执行。目前,CoreWeave数据中心已拥有25万块GPU,由于AI市场持续火热,微软、Meta等行业巨头对CoreWeave服务颇为依赖。在扩张过程中,CoreWeave投入巨大,2024年营收虽增至19亿美元,但资本支出却高达87亿美元,这也成为其亏损的主要根源。 未来风险在哪里 有人将CoreWeave比作AI云服务提供商中的玛莎拉蒂,而将其竞争对手通用型云服务提供商比作小型面包车,以此凸显CoreWeave在该领域的独特地位。 从运营层面来看,CoreWeave已经实现盈利,然而,债务的利息支出正在蚕食其运营利润。这意味着,尽管上市对CoreWeave而言是一个积极信号,但未来的运营风险依然不容小觑。 目前,美国各大科技企业正疯狂争夺算力资源,在供不应求的市场环境下,CoreWeave握有一定的谈判筹码。但如果市场形势转变,CoreWeave被迫转向付费订阅模式,且客户不再给予多年使用承诺,那么其营收将面临极大的不确定性。 简而言之,一旦AI算力市场供过于求,CoreWeave必将面临风险。当然,就目前而言,这种情况短期内不太可能发生。 ---- 怎么看像买车跑出租~。 开山鼻祖 编辑于 2025-03-13 14:16 |
[9 楼] 开山鼻祖
[老坛泡菜]
3-14 13:30
AMD 的 ROCm 生态仍在追赶 追的怎么样了?
AMD 的 ROCm 生态系统在追赶英伟达 CUDA 的过程中取得了显著进展,尤其在数据中心和 AI 领域表现突出,但仍存在一些挑战: 1. 硬件与软件协同发展 硬件创新:AMD 推出了基于 CDNA 架构的 Instinct 加速器(如 MI300X、MI325X),支持 HBM3e 高带宽内存,并计划在 2025 年推出 CDNA 4 架构的 MI350 系列,AI 推理性能预计提升 35 倍。这些硬件为高性能计算和 AI 训练提供了强大支持。软件优化:ROCm 6.x 版本不断优化,支持主流 AI 框架(如 PyTorch、TensorFlow)和大模型(如 Meta 的 Llama-3、Mistral-7B),在部分场景下性能超越英伟达竞品。例如,8 块 MI300X 加速的服务器在推理 LLaMA-3 70B 时性能比 H100 高 1.3 倍。 2. 生态合作与企业支持 合作伙伴扩展:AMD 与微软、Meta、戴尔、HPE 等企业合作,将 ROCm 集成到云服务(如 Azure OpenAI)和服务器解决方案中,加速企业级 AI 部署。开源社区贡献:ROCm 开源特性吸引开发者参与,Hugging Face 等平台已测试其模型在 ROCm 上的兼容性,确保 “开箱即用” 支持。 3. 市场增长与业绩表现 数据中心业务增长:2024 年 AMD 数据中心事业部营业额达 126 亿美元,同比增长 94%,其中 Instinct 加速器贡献超 50 亿美元,显示市场对其 AI 解决方案的认可。硬件兼容性:ROCm 已支持消费级显卡(如 RDNA 3 架构的 RX 9000 系列),但新品发布后软件支持存在延迟(如 RX 9070 系列发售后才获得 ROCm 支持),可能影响开发者体验。 4. 挑战与差距 软件栈成熟度:尽管 ROCm 功能增强,但 CUDA 生态仍占据主导地位,开发者习惯和工具链迁移成本较高。AMD 需进一步优化易用性和跨平台兼容性。硬件迭代节奏:AMD 通过年度发布节奏(如 MI300X、MI350 系列)加速创新,但部分硬件(如 Navi 系列)初期软件支持不足,可能影响市场接受度。 结论 AMD 的 ROCm 生态在 AI 和高性能计算领域快速追赶,硬件性能和软件优化取得突破,尤其在数据中心市场获得显著增长。然而,CUDA 的先发优势和庞大开发者社区仍是其面临的主要挑战。未来,AMD 需继续加强软件生态建设,缩短硬件与软件支持的时间差,以进一步缩小与英伟达的差距。 开山鼻祖 编辑于 2025-03-14 13:31 |
[8 楼] 开山鼻祖
[老坛泡菜]
3-14 13:23
![]() 1. 行业竞争的残酷性 技术迭代加速:AI 芯片领域的技术更新极快(如英伟达从 2012 年开始将 GPU 用于 AI 训练,至今已更新多代架构),企业必须持续投入研发,否则会被淘汰。例如,英特尔因在先进制程上落后于台积电和三星,导致代工业务亏损,逐渐边缘化。 生态壁垒构建:英伟达通过 CUDA 软件生态和硬件整合,形成了难以复制的竞争优势。其他企业若无法建立类似生态(如 AMD 的 ROCm 生态仍在追赶),则难以分羹市场。 2. “赢家” 与 “淘汰者” 并存 英伟达并非唯一赢家:尽管英伟达在 AI 芯片市场占据主导地位,但行业内仍有其他玩家(如 AMD 的 MI 系列加速卡、特斯拉自研 Dojo 芯片)在特定领域挑战其地位。不过,这些企业的生存空间取决于能否快速跟上技术趋势。淘汰的必然性:跟不上节奏的企业会被市场抛弃。例如,传统 PC 芯片厂商因未能及时转向 AI 算力需求而衰落,类似诺基亚在智能手机时代的溃败。 3. 对个人的影响 技能迭代压力:AI 技术的普及要求个人掌握新技能(如机器学习、算法优化),否则可能面临职业淘汰。例如,AI 绘画工具的普及已影响传统设计师岗位,而掌握 AI 工具的创作者效率大幅提升。职业转型需求:未来职场将更依赖与 AI 协同的能力,个人需主动适应技术变革,否则可能被替代。 4. 深层逻辑:长周期创新与生态竞争 长周期投入:英伟达的成功源于其 15 年以上的 AI 芯片研发积累,而非短期投机。企业若缺乏长期战略,即使短期领先也可能被颠覆。 生态系统竞争:未来的竞争将围绕 “硬件 + 软件 + 应用场景” 的生态展开。例如,英伟达通过与微软、OpenAI 等合作,构建了从算力到应用的完整链条,而孤立的技术或产品难以存活。 总结 这场竞争的本质不是 “谁赢”,而是 “谁能持续进化”。英伟达的领先是暂时的,只有不断创新并适应技术变革的企业和个人,才能在残酷的竞争中生存。对企业而言,需构建技术护城河和生态壁垒;对个人而言,需保持学习能力,拥抱 AI 工具,而非抗拒变化。 开山鼻祖 编辑于 2025-03-14 13:27 |
[7 楼] 开山鼻祖
[老坛泡菜]
3-14 11:54
alchen 发表于 2025-03-14 09:20 那倒不是,应该说是淘汰不少跟不上趟的。。对企业对个人都如此。。 开山鼻祖 编辑于 2025-03-14 11:55 |
[6 楼] alchen
[老坛泡菜]
3-14 09:20
这场竞争只有一个赢家-英伟达
|
[5 楼] 开山鼻祖
[老坛泡菜]
3-14 00:35
还比不上豆包,看以后了
![]() ![]() 开山鼻祖 编辑于 2025-03-14 00:38 |
[4 楼] 开山鼻祖
[老坛泡菜]
3-13 14:25
看看数据中心机器。。
微软 Azure(@Azure):微软 Azure 是首个搭载英伟达(@nvidia)Blackwell 系统及 GB200 驱动 AI 服务器的云服务。我们通过全层级优化,依托 InfiniBand 网络与创新闭环液冷技术,为全球顶尖 AI 模型提供支撑。更多内容,可至微软 Ignite 大会了解。 ![]() 开山鼻祖 编辑于 2025-03-13 14:27 |
[3 楼] 开山鼻祖
[老坛泡菜]
3-13 14:24
seansky 发表于 2025-03-13 14:22 说的模式。。 |
[2 楼] seansky
[泡菜]
3-13 14:22
算力的发展速度远超汽车的发展速度,完全没法比
|