GPT-5.4核心内幕曝光:永久记忆或成真,极限推理能力狂飙

5天前

【导读】GPT-5.4即将登场!目前已开启测试,单次可生成6000行代码,外媒爆料其具备极限推理模型,甚至可能拥有永久记忆功能。


若你觉得近期AI圈略显平静,缺乏刺激,那或许只是风暴来临前的短暂宁静。


据多方消息,GPT-5.4已蓄势待发!



LMArena平台上,GPT-5.4的身影已悄然出现。



就在刚刚,外媒The Information披露了GPT-5.4的诸多核心内幕。


消息足够震撼:它拥有更长的上下文处理能力、更强大的极限推理模型,甚至可能具备永久记忆!



若传闻属实,这一代模型绝非简单升级,而是能力形态的重大跃迁。


GPT-5.4提前测试,代码能力惊艳


近期,GPT-5.4的相关信息不断流出。



从Codex错误日志、GitHub PR到员工误发截图,短短几天内,GPT-5.4至少被“曝光”三次。



这些信息均由OpenAI自身意外泄露。


最初,开发者Corey Noles使用OpenAI Codex时触发网络安全限制,系统返回的错误日志中出现一串长模型名称:


  • gpt-5.4-ab-arm1-1020-1p-codexswic-ev3

其中最关键的是开头的“gpt-5.4”。


这串字符可视为OpenAI的内部部署ID,表明这是一个真实部署、正在测试的GPT-5.4实验版本。



随后,OpenAI官方Codex仓库出现两个Pull Request:


一个PR写道:


  • minimummodel version = (5,4)

另一个PR更直接:


  • toggleFast mode for GPT-5.4

看来OpenAI为GPT-5.4添加了“Fast Mode”开关。几小时后,这两个PR被强制推送删除。


更具戏剧性的是,OpenAI Codex团队员工Tibo在社交平台发布截图,模型选择器中清晰显示“GPT-5.4”。



不久后该帖子被删除。


随后有开发者报告在Codex错误信息中看到类似模型字符串,进一步证明GPT-5.4已部署在内部服务器,正在进行A/B测试。


单次提示生成6000行代码?

部分测试者反馈,模型推理速度明显提升,代码生成长度增加,甚至单次提示可生成6000+行代码!



这在以往难以实现。


还有用户发现新特征“Fast Mode”,推测OpenAI可能在尝试新的推理架构,如多级延迟管道或不同速度档位模型。


此外,新模型界面特征也被发现:部分用户表示,若在推理摘要(Chain-of-Thought summary)旁看到点赞或点踩按钮,可能意味着账户已被分配到GPT-5.4测试模型。


极限推理模式,性能大幅提升


The Information的爆料与上述信息完全吻合。


此次爆料中最引人注目的是“极限推理模式(Extreme Reasoning Mode)”。


传统模型思考时间有限,而该模式能让模型性能拉满,遇到难题时可花费更多时间、调用更多计算资源进行深层推理。


有趣的是,调查显示许多普通ChatGPT用户对推理功能兴趣不大,从商业应用角度看,企业更希望AI快速给出答案。


因此OpenAI仍重视推理能力,动机显得更为纯粹。


不过,这对科研领域和部分企业客户是重大利好。


在科研领域,许多用户愿意让模型在有价值的研究问题上运行数小时甚至数天;部分企业也需要GPT-5.4更强的推理能力和长周期任务表现,以构建能自动化复杂业务流程的AI智能体。


各方爆料称极限推理模式将非常强大,这也拉满了大家的期待。


上下文窗口翻倍,达100万tokens

GPT-5.4的另一硬核升级是上下文窗口从40万tokens提升至100万tokens,超过当前GPT-5.2的两倍(部分OpenAI模型如GPT-4.1支持100万token,但5.2不支持)。


这意味着GPT-5.4可处理几十万字文档、分析整本书籍或长代码库与数据,在长上下文能力上追平谷歌Gemini和Anthropic的Claude。


坊间甚至有更夸张的爆料称上下文达到200万tokens!



GPT-5.4更擅长“长任务”

爆料还提到GPT-5.4在持续数小时的任务上表现更优,能更好记住用户请求细节、自身权限及避免错误。


这对OpenAI的Codex编程工具帮助极大,因为Codex正是用AI自动化复杂长时间任务;同时对AI Agent也很关键,Agent可自主读取需求、查资料、写代码、修bug,无需每步人工提示。


GPT-5.4或具备永久记忆?


最疯狂的传闻是GPT-5.4可能拥有永久记忆!


一位工程师在X平台爆料后,AI社区瞬间沸腾,硅谷投资大佬、YC创始人Garry Tan也迅速转发。



爆料人介绍了GPT-5.4的“持久状态”,Jeff Dean在latentspacepod播客中也提到相关方向,可见各大AI实验室都在探索。


有人猜测OpenAI内部可能已找到大规模有效结合状态空间模型(SSM)和Transformer的方法。SSM设计本身能在每步计算中持续传递隐藏状态,计算复杂度线性增长,不像Transformer随上下文长度呈二次增长,这与上下文达200万token的传闻相呼应。



持久化状态本质上让AI模型从《记忆碎片》中依赖短期记忆的角色,转变为《雨人》中拥有稳定持久记忆的角色,赋予其真正的长期记忆能力。若能实现,将是重大技术突破!



竞争压力下,OpenAI开启“月更”模式


GPT-5之后,OpenAI明显加快模型更新节奏,今年已推出GPT-5.1、GPT-5.2,GPT-5.4也即将到来,更新频率接近每月一次。


显然,OpenAI是被竞争对手逼到了墙角。


目前ChatGPT周活跃用户达9.1亿,虽数字惊人,但未达OpenAI 10亿WAU目标。谷歌、Anthropic等竞争对手在长上下文、Agent、推理能力上持续发力。


若GPT-5.4真具备100万长上下文、极限推理、持久状态,AI形态可能变成持续工作的智能体;若能“记住事情”,或将成为大模型发展的关键节点。


奇点已至,我们正加速前行。你,准备好了吗?


参考资料:


https://x.com/marmaduke091/status/2028604854143176958


https://www.theneurondaily.com/p/openai-leaked-gpt-5-4-three-times


https://x.com/daniel_mac8/status/2028849150368862416


https://www.theinformation.com/newsletters/ai-agenda/openais-next-ai-model-will-extreme-reasoning?rc=bfliih


本文来自微信公众号“新智元”,编辑:Aeneas,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com