当前所在位置: 首页 > 资讯

微软6页论文爆火:三进制LLM,真香

2024-02-29 胖猫 【 字体:

这就是由微软和中国中科院大学在最新一项研究中所提出的结论——

所有的LLM,都将是1.58 bit的。

微软6页论文爆火:三进制LLM,真香(图1)

具体而言,这项研究提出的方法叫做BitNet b1.58,可以说是从大语言模型“根儿”上的参数下手。

将传统以16位浮点数(如FP16或BF16)形式的存储,统统变成了三进制,也就是 {-1, 0, 1}

微软6页论文爆火:三进制LLM,真香(图2)

值得注意的是,这里的“1.58 bit”并不是指每个参数占用1.58字节的存储空间,而是指每个参数可以用1.58位的信息来表示。

在如此转换之后,矩阵中的计算就只会涉及到整数的加法,因此会让大模型在保持一定精度的同时,显著减少所需的存储空间和计算资源。

例如BitNet b1.58在3B模型大小时与Llama做比较,速度提高了2.71倍的同时,GPU内存使用几乎仅是原先的四分之一。

而且当模型的规模越大时(例如70B),速度上的提升和内存上的节省就会更加显著!

这种颠覆传统的思路着实是让网友们眼前一亮,论文在X上也是受到了高度的关注:

微软6页论文爆火:三进制LLM,真香(图3)

网友们惊叹“改变游戏规则”的同时,还玩起了谷歌attention论文的老梗:

1 bit is all YOU need.

微软6页论文爆火:三进制LLM,真香(图4)

那么BitNet b1.58具体又是如何实现的?我们继续往下看。

把参数都变成三进制

这项研究实则是原班人马在此前发表的一篇论文基础之上做的优化,即在原始BitNet的基础上增加了一个额外的0值。

微软6页论文爆火:三进制LLM,真香(图5)

整体来看,BitNet b1.58依旧是基于BitNet架构(一种Transformer),用BitLinear替换了nn.Linear。

至于细节上的优化,首先就是我们刚才提到的“加个0”,即权重量化(weight quantization)。

BitNet b1.58模型的权重被量化为三元值{-1, 0, 1},这相当于在二进制系统中使用了1.58 bit来表示每个权重。这种量化方法减少了模型的内存占用,并简化了计算过程。

微软6页论文爆火:三进制LLM,真香(图6)

其次,在量化函数设计方面,为了将权重限制在-1、0或+1之间,研究者们采用了一种称为absmean的量化函数。

微软6页论文爆火:三进制LLM,真香(图7)

这个函数先会根据权重矩阵的平均绝对值进行缩放,然后将每个值四舍五入到最接近的整数(-1, 0, +1)。

接下来就到了激活量化(activation quantization)这一步。

激活值的量化与BitNet中的实现相同,但在非线性函数之前不将激活值缩放到[0, Qb]的范围内。相反,激活值被缩放到[−Qb, Qb]的范围,以此来消除零点量化。

值得一提的是,研究团队为了BitNet b1.58与开源社区兼容,采用了LLaMA模型的组件,如RMSNorm、SwiGLU等,使得它可以轻松集成到主流开源软件中。

最后,在实验的性能比较上,团队将BitNet b1.58与FP16 LLaMA LLM在不同大小的模型上进行了比较。

微软6页论文爆火:三进制LLM,真香(图8)

结果显示,BitNet b1.58在3B模型大小时开始与全精度LLaMA LLM在困惑度上匹配,同时在延迟、内存使用和吞吐量方面有显著提升。

而且当模型规模越大时,这种性能上提升就会越发显著。

网友:能在消费级GPU跑120B大模型了

正如上文所言,这篇研究独特的方法在网上引发了不小的热议。

DeepLearning.scala作者杨博表示:

BitNet b1.58相比原版BitNet,最大的特点就是允许0参数。我觉得稍微修改一下量化函数,也许可以控制0参数的比例。当0参数的比例很大时,可以用稀疏格式存储权重,使得平均每个参数的显存占用甚至低于1比特。这就相当于权重级别的MoE了。我觉得比一般的MoE更优雅。

与此同时,他也提出了关于BitNet的缺点:

BitNet最大的缺点在于虽然能减少推理时的显存开销,但优化器状态和梯度仍然要用浮点数,训练仍然很费显存。我觉得如果能把BitNet和训练时节省显存的技术结合起来,那么相比传统半精度网络,同等算力和显存下支持更多参数,优势就很大了。

目前能节省优化器状态的显存开销的办法是offloading。能节省梯度的显存占用的办法可能是ReLoRA。但是ReLoRA的论文实验只用了十亿参数的模型,并没有证据表明能不能推广到百亿、千亿参数的模型。

微软6页论文爆火:三进制LLM,真香(图9)

不过也有网友分析认为:

若论文成立,那么我们就能在24GB消费级GPU上跑120B的大模型了。

微软6页论文爆火:三进制LLM,真香(图10)

微软6页论文爆火:三进制LLM,真香(图11)

那么你觉得这种新方法如何呢?

参考链接:

[1]https://arxiv.org/abs/2402.17764

[2]https://twitter.com/_akhaliq/status/1762729757454618720

[3]https://www.zhihu.com/question/646359036/answer/3413044355


阅读全文
相关推荐

功能饮料暗战:年轻人把便利店变成「同仁堂」

<strong>功能饮料暗战:年轻人把便利店变成「同仁堂」</strong>
「核心提示」当枸杞拿铁变成便利店“显眼包”,当熬夜达人们开始用黄芪水“干杯”,一...

开公司前期最重要的三要素!!!

<strong>开公司前期最重要的三要素!!!</strong>
第一:不要直接用身份证直接注册公司!注册公司可以用两个东西,第一个叫身份证,第二...

阿里前端第一人AI创业首秀,要做全球内容创作者的GitHub,公司俩月估值过亿,5k人排队内测

<strong>阿里前端第一人AI创业首秀,要做全球内容创作者的GitHub,公司俩月估值过亿,5k人排队内测</strong>
这就是躬身入局AI大模型创业的玉伯,对2024年创业现状的真实体感。但这位昔日的...

设计一套成就系统,让生活像游戏一样好玩

<strong>设计一套成就系统,让生活像游戏一样好玩</strong>
大家好呀。2024年马上就要过去了,我们很快就要迎来2025年啦。如果在过去的一...

向版权流氓说再见,微信公众号上线AI配图功能

向版权流氓说再见,微信公众号上线AI配图功能
继网易Lofter、虎嗅、百度百家号之后,微信公众号也开始拥抱AI配图了。日前微...

教老外认花花草草,就能月入8000万?

教老外认花花草草,就能月入8000万?
出海收割老外这块,世超见过菜得抠脚的,也见过强得可怕的。但强得可怕还没什么人知道...

最招恨的“劣迹网红”:暴揍老头,年入5亿

<strong>最招恨的“劣迹网红”:暴揍老头,年入5亿</strong>
58岁的“铁人”泰森,重返拳台。在上周末鏖战8回合后,泰森吃到对手杰克·保罗共7...

抖音爆火的“拆盲盒”直播,是如何将昂贵的废品卖给消费者的?

<strong>抖音爆火的“拆盲盒”直播,是如何将昂贵的废品卖给消费者的?</strong>
抖音直播间掀起了一股“拆盲盒”热潮。最初,这股热潮主要集中在拆卡直播间。一盒10...

低至4元的柠檬水,凭什么赚钱?

<strong>低至4元的柠檬水,凭什么赚钱?</strong>
柠檬水快卷疯了。入夏后,不少新茶饮品牌都从柠檬开刀,要么降价,要么推新,动作频频...

2分钟找到契合你的小众市场

<strong>2分钟找到契合你的小众市场</strong>
编者按:互联网是个长尾市场,越来越长尾。不要试图取悦所有人,到头来你会一场空。相...