微软开发超高效1-bit AI模型BitNet:可直接在CPU上运行,性能媲美主流模型
4346 2
[1 楼] 开山鼻祖 [老坛泡菜]
4-21 13:22

在人工智能领域,模型的大小和效率一直是重要的考量因素。微软研究院推出了一种名为BitNet的新型AI模型,它以极简的权重设计,在轻量级硬件上实现了令人瞩目的性能。
BitNet b1.58 2B4T,号称是目前规模最大的“1-bit神经网络模型”,可以不靠GPU,只在CPU上运行,甚至包括苹果的M2芯片都能执行。此模型已在MIT授权下开源发布,代表开发者与研究人员可自由使用与改良。
所谓的“BitNet”,是微软提出一种极致压缩的AI模型架构,通过将神经网络的“权重值”进行极限量化,只保留-1、0、1三种可能性。这种做法能够大幅减少运算所需的内存与能源消耗,尤其适合运行在低端设备、笔记本甚至是手机上。

这款BitNet b1.58 2B4T拥有20亿个参数,等同主流轻量语言模型的规模,并使用超过4兆个token的语料(约当3300万本书)进行训练。根据微软研究人员的测试结果,BitNet在多项标准基准测试中表现优异,包括:
GSM8K:小学数学题逻辑推理
PIQA:常识性物理推理能力
其表现甚至优于同级对手,如:
Meta的Llama 3.2 1B
Google的Gemma 3 1B
阿里巴巴的Qwen 2.5 1.5B
研究指出,BitNet b1.58不仅准确率可与主流模型匹敌,在某些任务上推论速度还快上两倍,同时所需内存也显著减少,对于资源有限的设备极具吸引力。
不过,BitNet的高效运行需依赖微软自家打造的推论框架bitnet.cpp,目前此框架仅支持特定CPU架构,暂未支持主流的GPU设备。这对于目前以GPU为主的AI计算生态系来说,是一项明显限制。
整体而言,微软BitNet展现了低位元量化模型的强大潜力,尤其适合用于边缘设备、笔记本或没有GPU的环境。然而在兼容性与工具链普及方面仍面临挑战,是否能广泛应用,还有待时间验证。
开山鼻祖 编辑于 2025-04-21 13:25
[3 楼] 开山鼻祖 [老坛泡菜]
4-21 14:27
。。

开山鼻祖 编辑于 2025-04-21 14:30
[2 楼] duoduobear [Canon论坛版主]
4-21 13:36
现在仍然是AI的启蒙期,就像70年代的微处理器。未来还会有很多进步。不但会运行在价格更低廉的硬件上,还会广泛应用于各种领域。