微软开发超高效1-bit AI模型BitNet:可直接在CPU上运行,性能媲美主流模型
4346
2
[1 楼] 开山鼻祖
[老坛泡菜]
4-21 13:22
![]() BitNet b1.58 2B4T,号称是目前规模最大的“1-bit神经网络模型”,可以不靠GPU,只在CPU上运行,甚至包括苹果的M2芯片都能执行。此模型已在MIT授权下开源发布,代表开发者与研究人员可自由使用与改良。 所谓的“BitNet”,是微软提出一种极致压缩的AI模型架构,通过将神经网络的“权重值”进行极限量化,只保留-1、0、1三种可能性。这种做法能够大幅减少运算所需的内存与能源消耗,尤其适合运行在低端设备、笔记本甚至是手机上。 这款BitNet b1.58 2B4T拥有20亿个参数,等同主流轻量语言模型的规模,并使用超过4兆个token的语料(约当3300万本书)进行训练。根据微软研究人员的测试结果,BitNet在多项标准基准测试中表现优异,包括: GSM8K:小学数学题逻辑推理 PIQA:常识性物理推理能力 其表现甚至优于同级对手,如: Meta的Llama 3.2 1B Google的Gemma 3 1B 阿里巴巴的Qwen 2.5 1.5B 研究指出,BitNet b1.58不仅准确率可与主流模型匹敌,在某些任务上推论速度还快上两倍,同时所需内存也显著减少,对于资源有限的设备极具吸引力。 不过,BitNet的高效运行需依赖微软自家打造的推论框架bitnet.cpp,目前此框架仅支持特定CPU架构,暂未支持主流的GPU设备。这对于目前以GPU为主的AI计算生态系来说,是一项明显限制。 整体而言,微软BitNet展现了低位元量化模型的强大潜力,尤其适合用于边缘设备、笔记本或没有GPU的环境。然而在兼容性与工具链普及方面仍面临挑战,是否能广泛应用,还有待时间验证。 开山鼻祖 编辑于 2025-04-21 13:25 |
[3 楼] 开山鼻祖
[老坛泡菜]
4-21 14:27
。。
![]() 开山鼻祖 编辑于 2025-04-21 14:30 |
[2 楼] duoduobear
[Canon论坛版主]
4-21 13:36
现在仍然是AI的启蒙期,就像70年代的微处理器。未来还会有很多进步。不但会运行在价格更低廉的硬件上,还会广泛应用于各种领域。
|