设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

ChatGPT参数规模被扒:只有7B

2024-03-17 20:10:03 来源:

ChatGPT 惨遭攻击,参数规模终于被扒出来了——rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

很可能只有 7B(70 亿)。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

消息来自南加州大学最新研究,他们使用一种攻击方法,花费不到 1000 美元就把最新版 gpt-3.5-turbo 模型的机密给挖了出来。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

果然,OpenAI 不 Open,自有别人帮他们 Open。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

具体来说,南加大团队三位作者破解出了未公布的 gpt-3.5-turbo嵌入向量维度(embedding size)为 4096 或 49。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

而几乎所有已知的开源大模型如 Llama 和 Mistral,嵌入向量维度 4096 的时候都是约 7B 参数规模。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

其它比例的话,就会造成网络过宽或过窄,已被证明对模型性能不利。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

因此南加大团队指出,可以推测 gpt-3.5-turbo 的参数规模也在 7B 左右,除非是 MoE 架构可能不同。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

数月前,曾有微软 CODEFUSION 论文意外泄露当时 GPT-3.5 模型参数为20B,在后续论文版本中又删除了这一信息。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

当时引起了一阵轩然大波,业界很多人分析并非不可能,先训练一个真正的千亿参数大模型,再通过种种手段压缩、蒸馏出小模型,并保留大模型的能力。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

而现在的 7B,不知道是从一开始 20B 的消息就不准确,还是后来又再次压缩了。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

但无论是哪一种,都证明 OpenAI 有很恐怖的模型优化能力。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

那么,南加大团队是怎么扒出 ChatGPT 未公开配置的呢?rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

还要说到现代语言模型中普遍存在的 "Softmax 瓶颈"。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

当 Transformer 网络处理完输入,会得到一个低维的特征向量,也就是 Embedding。这个特征向量再经过 Softmax 变换,就得到了最后的概率分布输出。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

问题就出在 Softmax 这里,因为矩阵的秩最多只能等于特征向量的维度,所以大模型的输出空间事实上被限制在了一个低维的线性子空间里。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这就像是无论你的衣柜里有多少件衣服,最后能穿出去的搭配,其实是有限的。这个 " 衣柜 " 的大小,就取决于你的 " 特征向量维度 " 有多大。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

南加大团队抓住了这一点,他们发现,只要从 API 调用中获取到足够多的输出样本,就足以拼凑出这个大模型的特征向量维度。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

有了这个特征向量维度,可以进一步推断大模型的参数规模还原出完整的概率输出在 API 悄悄更新时也能发现变化,甚至根据单个输出判断来自哪个大模型rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

更狠的是,推测特征向量维度并不需要太多的样本。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

以 OpenAI 的 gpt-3.5-turbo 为例,采集到 4000 多个样本就绰绰有余了,花费还不到 1000 美元。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

在论文的最后,团队还探讨了目前的几个应对这种攻击的方法,认为这些方法要么消除了大模型的实用性,要么实施起来成本高昂。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

不过他们倒也不认为这种攻击不能有效防护是个坏事,rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

一方面无法用此方法完整窃取模型参数,破坏性有限。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

另一方面允许大模型 API 用户自己检测模型何时发生变更,有助于大模型供应商和客户之间建立信任,并促使大模型公司提供更高的透明度。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这是一个 feature,不是一个 bug。rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

论文:rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

https://arxiv.org/abs/2403.09539rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

参考链接:rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

https://x.com/TheXeophon/status/1768659520627097648rMw流量资讯——探索最新科技、每天知道多一点LLSUM.COM

本文链接:ChatGPT参数规模被扒:只有7Bhttp://www.llsum.com/show-2-3855-0.html

声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: “刷子”变豪车,宁波海关查获集装箱夹藏劳斯莱斯轿车

下一篇: 上汽飞凡回应传言:进一步深化“轻资产”战略,年中还有重磅车型

热门资讯

推荐资讯

  • 日榜
  • 周榜
  • 月榜