设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

阿里刚开源32B大模型,我们立马测试了“弱智吧”

2024-04-08 08:55:32 来源: 量子位

拼齐1.5系列最后一块拼图XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

金磊 发自 凹非寺XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

量子位 | 公众号 QbitAIXiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里的通义千问(Qwen),终于拼齐了1.5系列的最后一块拼图——XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

正式开源Qwen 1.5-32BXiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

话不多说,直接来看“成绩单”。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这次官方pick同台竞技的“选手”是Mixtral 8x7B模型和同为Qwen 1.5系列的72B模型XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

从结果上来看,Qwen 1.5-32B已经在多项评测标准中超越或追平Mixtral 8x7B:XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

并且即便是在与自家更大参数模型PK过程中,Qwen 1.5-32B也用“以小博大”的姿势展现出了较好的性能。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

用通义千问团队成员的话来说就是:XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

不仅如此,即便是再拉来其它体量相当的大模型“选手”,Qwen 1.5-32B在多项评测中的成绩依旧较为亮眼:XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

除此之外,团队还做了一项比较有意思的测试——长文本评估任务,“大海捞针”XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

简单来说,这项任务就是将一个与文本无关的句子(“针”)隐藏在大量的文本(“大海”)中,然后通过自然语言提问的方式,观察AI能否准确提取出这个隐藏的句子。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

从结果上来看,Qwen 1.5-32B在32k tokens的上下文中性能表现良好。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

不过有一说一,刚才所展示的也还仅是Qwen 1.5-32B在评分上的成绩,至于具体到实际体验过程中,效果又会如何呢?XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

大战一波“弱智吧”

自打大模型火爆以来,“弱智吧”就一直成了检测大模型逻辑能力的标准之一,江湖戏称为“弱智吧Benchmark”XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

(“弱智吧”源自百度贴吧,是一个充满荒谬、离奇、不合常理发言的中文社区。)XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

而且就在前几天,“弱智吧”还登上正经AI论文,成了最好的中文训练数据,引发了一波不小的热议。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这项研究正是来自中科院深圳先进技术研究院、中科院自动化研究所,滑铁卢大学等众多高校、研究机构联合团队。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

刚好此次Qwen 1.5-32B在开源的同时,也一并放出了在线体验的demo,那么当它俩碰到一起,会擦出怎样的火花?XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

请听第一题:XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

Qwen 1.5-32B很准确地回答出了“你的父母在结婚时你尚未出生,因此他们无法邀请你参加他们的婚礼”。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

继续第二题XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

面对这道很经典的问题,Qwen 1.5-32B也能做到追根溯源地做正经科普。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

再来第三道第四道XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”阿里刚开源32B大模型,我们立马测试了“弱智吧”

不难看出,Qwen 1.5-32B都能够给出准确的答案。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

尤其是在第四道问题上,它甚至直接指出了逻辑性的问题:XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

嗯,Qwen 1.5-32B是一个经住了“弱智吧Benchmark”的大模型。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

至于其它关于常识、数学、编程等能力的效果,家人们可以亲自去体验一番了。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

如何做到的?

正如我们刚才所述,Qwen 1.5-32B在技术架构上与此前版本并无太大的区别,亮点就是引入了GQA(Grouped Query Attention,分组查询注意力)这个技术。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这也正是它能够在相对较小的体量之下,能够做到性能较优且快速部署的关键。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

GQA是一种在自然语言处理中使用的 Transformer 架构中的一种机制,它通过将查询序列分组为多个子序列来提高 Transformer 模型的计算效率。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这种方法可以有效地减少计算复杂度,同时保留 Transformer 模型的表示能力。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

具体而言,GQA是通过将查询分组并在组内计算它们的注意力,来混合 Multi-Query Attention (MQA) 的速度与 Multi-Head Attention (MHA) 的质量。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

GQA 通过将查询头分为组,每个组共享单个键头和值头,来实现这一点,从而在质量和速度之间取得平衡。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

如此一来,GQA的引入就降低了注意力计算的数量,从而加速了推理时间。XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

阿里刚开源32B大模型,我们立马测试了“弱智吧”

最后,奉上Qwen 1.5-32B在HuggingFace的体验入口,感兴趣的朋友可以去体验啦~XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

参考链接:XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM
[1]https://qwenlm.github.io/zh/blog/qwen1.5-32b/XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM
[2]https://huggingface.co/spaces/Qwen/Qwen1.5-32B-Chat-demoXiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM
[3]https://github.com/QwenLM/Qwen1.5XiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM
[4]https://klu.ai/glossary/grouped-query-attentionXiL流量资讯——探索最新科技、每天知道多一点LLSUM.COM

本文链接:阿里刚开源32B大模型,我们立马测试了“弱智吧”http://www.llsum.com/show-2-4634-0.html

声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: Mistral Large模型现已在Amazon Bedrock上正式可用,进一步拓宽客户选择范围

下一篇: 北京首座户内500千伏枢纽变电站开建

热门资讯

推荐资讯

  • 日榜
  • 周榜
  • 月榜