DeepSeek更新引争议:用户吐槽变冷淡笨拙,回应称或为V4测试铺垫

2分钟前

2月11日,深度求索(DeepSeek)悄然开启旗舰模型的灰度测试。


据科创板日报消息,不少用户反馈,DeepSeek的网页端与APP端完成版本更新,新增支持最高1M(百万)Token的上下文长度功能。要知道,去年8月推出的DeepSeek V3.1,其上下文长度仅拓展至128K。


记者实际测试发现,DeepSeek在问答中明确表示自身支持1M上下文,可一次性处理超长文本。在提交超24万个token的《简爱》小说文档后,DeepSeek成功识别了文档内容。


然而,2月12日晚,“Deepseek被指变冷淡了”的话题登上微博热搜。




部分用户在社交平台上抱怨:DeepSeek不再使用用户设定的昵称,统一以“用户”相称。此前深度思考模式下,它会以角色视角展现细腻心理描写,比如“夜儿(用户昵称)总爱逗我”,更新后却变成“好的,用户这次想了解……”。


有用户让DeepSeek推荐电影,它列出几个片名后补了句“够你看一阵子。不够再来要。”,被用户吐槽有“爹味”——这一网络热词常用来形容居高临下的说教风格。


还有网友直言“Deepseek更新成傻子了”,称模型如今像个文绉绉、情绪激动又大惊小怪的诗人,输出内容比20年前的青春伤感文学还尴尬。


也有用户觉得它“又凶又冷漠”,甚至变得油腻。



不过,也有不同声音:部分网友认为DeepSeek更客观理性了,还有人觉得它更懂揣摩提问者心理状态,而非仅聚焦问题本身。


更新前效果:



更新后效果:



据经济观察报,某国产大模型厂商人士分析,此次更新版本或类似“极速版”,是通过牺牲部分体验换取速度,为2月中旬即将发布的V4版本做最后压力测试。


DeepSeek的V系列模型定位为追求极致综合性能的基础模型。2024年12月推出的V3是其重要里程碑,高效的MoE架构奠定了强大性能基础。此后团队快速迭代,推出强化推理与Agent能力的V3.1,2025年12月更新至V3.2,还同步推出专攻高难度数学和学术问题的V3.2-Speciale版本。


科技媒体The Information此前爆料,DeepSeek计划在今年2月中旬农历新年期间推出新一代旗舰模型DeepSeek V4,该版本将大幅提升写代码能力。


今年初,DeepSeek团队发表两篇论文,公开两项创新架构:mHC(流形约束超连接)用于优化深层Transformer信息流动,让模型训练更稳定、易扩展,在不增加算力的情况下提升性能;Engram(条件记忆模块)将静态知识与动态计算解耦,用廉价DRAM存储实体知识,释放昂贵HBM专注推理,显著降低长上下文推理成本。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com