DeepSeek更新:引领国产芯片新飞跃

2025-08-27
DeepSeek V3.1发布,凭借混合架构与FP8技术降低成本,引发国产芯片股大幅上涨。

DeepSeek V3.1上线后,官方的一条留言瞬间在AI圈引起轰动。


“新的架构、下一代国产芯片”,短短不到20个字,却蕴含丰富信息,引发广泛热议。



经过对众多科普文的研究,简单来说,国产AI正迈向软硬协同阶段,未来模型有望减少对英伟达、AMD等国外算力的依赖。


同时,此次更新打破了“性能越高成本越贵”的行业常规,为金融、医疗等高算力场景的应用带来更多想象空间。


资本市场反应迅速:DeepSeek官宣后,国产芯片概念股应声上涨,每日互动尾盘直线拉升,收盘涨幅达13.62%。



有网友调侃:国产芯片迎来暴涨,DeepSeek一句话让周五大盘冲上3800点。


近日,DeepSeek官方低调上线V3.1版本,仅发布了一则公告。



此次V3.1更新的核心创新是其混合推理架构——Hybrid Reasoning Architecture。


该架构支持思考模式和非思考模式,用户可随时切换,既能慢慢分析,也能快速得出结果。



过去,DeepSeek产品线分工明确:V3模型擅长通用对话,R1模型更适合深度思考。这种分离式架构虽让各模型在擅长领域表现出色,但用户切换不便。


如今,V3.1打破壁垒,将通用对话、复杂推理、专业编程等多种核心功能集成于同一模型,提升了使用灵活性和效率。


此外,V3.1的推理效率显著提升。官方数据显示,在思考模式下,其各项任务平均表现与前代顶级R1 - 0528相当,但输出的token数量减少20% - 50%;非思考模式下,输出长度更短,性能却不打折。



这得益于“思维链压缩”技术:模型在训练阶段学会生成更简洁、高效的推理路径,同时保证答案准确,即算法更加智能。


这样做的目的很明确:节省成本。


以往,思维链虽增强了模型推理能力,但冗长的中间步骤导致计算成本和API调用费用高昂,难以大规模应用。


V3.1的思维链压缩解决了这一问题,使高级AI推理能力从学术工具转变为可大规模商业化的经济方案。


在社区测试中,DeepSeek V3.1在Aider多语言编程测试中分数超过Claude 4 Opus,且成本更低。



这引发开发者关注,Hugging Face上的热度持续上升。



值得注意的是,DeepSeek官宣V3.1时提到,该模型采用UE8M0 FP8 Scale的参数精度,同时对分词器和chat template进行了调整,与之前的V3有明显差异。


关于“UE8M0 FP8”,简单介绍如下:


FP8将普通浮点数压缩为8位存储,节省空间和算力。



结合MXFP8的“块缩放”思路,将数据分块,每块使用独立缩放系数,既减少信息损失,又节省资源。


名字中的U、E、M可理解为“无符号 + 指数 + 尾数”。UE8M0中8位都用于表示指数,无尾数和符号位,处理器复原数据时只需移动指数位,无需复杂乘法,速度快、路径短。


该格式动态范围大,能同时表示大小数,不易溢出或被压成0,在保证8位张量精度的同时,将信息损失降至最低。



这对国产新芯片非常合适,此前多数国产AI芯片采用FP16/INT8,无法原生支持FP8。


目前,大部分国产AI加速器采用FP16/INT8方案,缺乏完整的FP8单元。


新一代芯片,如摩尔线程MUSA 3.1 GPU、芯原VIP9000 NPU,开始支持原生FP8,DeepSeek V3.1的UE8M0格式与之匹配。


总之,UE8M0 FP8让模型在新一代国产芯片上运行更省空间、更快、更稳,同时保持精度。


这也是DeepSeek官微特别提及的原因,为国产AI带来了低成本、高性能的新机遇。


下面看看更新后的使用体验,大家关心的官网访问问题,官方给出了答案。



打开官网发现,DeepSeek将App和网页端的“深度思考(R1)”改为“深度思考”,官方证实模型已更新。


看看网友们的新奇玩法。


推特X上有AI博主分析,新模型生成的小球跳动效果更符合物理定律,还能调节重力、摩擦、旋转速度、弹跳等参数。



有人用DeepSeek V3.1制作振动编码,变身VJ。



还有网友让V3.1绘制自画像,画风独特。



不过,社区中部分用户吐槽翻译和写作存在问题,SYSTEM PROMPT需现场写指令,中英夹杂和错词偶有出现。



感兴趣的朋友可前往官网体验。


每次DeepSeek更新都让人期待下一次,它几乎成为国产AI的精神象征,让我们一起期待DeepSeek R2的到来。


本文来自微信公众号“科技狐”(ID:kejihutv),作者:老狐,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com