千问3.5小模型四连发 智能密度创新高 端侧AI应用迎爆发
3月3日消息,阿里于3月2日晚开源四款千问3.5小尺寸模型,分别为Qwen3.5-0.8B、2B、4B和9B。凭借模型技术的创新与突破,这些小尺寸模型展现出强劲性能:Qwen3.5-9B综合性能可媲美参数量大其10倍的模型;Qwen3.5-4B的Agent能力优于部分国际主流模型,适合作为轻量级Agent的多模态底座;Qwen3.5-0.8B和2B体积小巧、运行速度快,尤其适合手机、智能眼镜等端侧设备部署。开源消息发布后,马斯克第一时间在社交媒体上评价千问3.5“智能密度令人印象深刻”。

借助模型架构创新与训练突破,千问3.5首次在小尺寸稠密(Dense)模型中实现强大的原生多模态能力,模型智能水平与视觉理解能力同步提升,小尺寸模型具备了中型乃至大型模型的性能,智能密度再创新高。在指令遵循(IFBench)、博士级别推理(GPQA)、数学推理(HMMT 25)、具身推理(ERQA)、复杂文档理解(OmniDocBench)等多个权威评测中,Qwen3.5-9B性能媲美参数量大10倍的Qwen3-Next-80B-A3B-Thinking等模型,显著优于国际主流轻量级模型,是性价比极高的通用模型选择。
尺寸更小的4B模型,在性能与资源消耗间实现完美平衡,拥有极强的Agent能力,适合作为轻量级Agent的多模态基座。在视觉智能体(ScreenSpot pro)评测中,Qwen3.5-4B性能与尺寸近8倍于它的Qwen3-VL-30B-A3B持平,能像真人一样自主操作手机和电脑;在工具调用(TIRE-Bench)评测中,该模型表现大幅优于当前国际主流模型。极致小尺寸的Qwen3.5-0.8B和2B模型,体积小、推理速度快,可直接部署在手机、平板、智能座舱、可穿戴设备等终端硬件上,为离线语音交互、本地文档解析、实时感知决策等端侧AI应用开辟新可能。有专家指出,千问3.5小模型的推出,将推动未来AI核心落地场景在端侧全面爆发。

目前,千问3.5已开源8款新模型,均实现“以小胜大”,这正是让马斯克惊艳的“智能密度”提升——以更少计算量提供更强大智能。除夕发布的新一代原生多模态基模Qwen3.5-397B-A17B,不到4000亿参数性能超越上代万亿参数的千问3旗舰模型;上月底开源的三款中等尺寸模型Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B,性能强劲且可在消费级显卡上运行。开源首月,千问3.5横扫全球开源模型排行榜,前五名中占据四席,引爆AI社区。有开发者实测,仅用一台配备M4芯片的普通笔记本电脑,就能在本地高速运行中等尺寸的千问3.5模型,性能与顶级模型相当;有开发者惊叹:“千问凭一己之力,将Claude Sonnet 4.5级别的模型装进电脑,而且免费。”
据悉,阿里坚持全尺寸、全模态全面开源,涵盖大语言模型、数学、编程、语音、视觉等多个领域,累计开源400多款千问模型,全球下载量突破10亿次,衍生模型数量超20万,是全球极具影响力的开源模型体系。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com


