零成本、无需微调:提示词加几个字让能大模型创造力暴涨 2 倍

商界观察
1天前

大模型正在经历“模式坍缩”

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

 

 

编者按:AI 越来越无聊,真凶竟是人类自己?斯坦福最新研究发现,无需重新训练,仅需 几个字的简单指令,就能打破“安全对齐”的封印,让大模型被压抑的创造力暴涨 2 倍。文章来自编译。

 

ChatGPT 总是给你同样无聊的回答?这项新技术能激发任何 AI 模型 2 倍以上的创造力——而且无需训练。原理如下。

 

我让 ChatGPT 给我讲一个关于咖啡的笑话,试了五次。

 

同样的笑话。每一次。绝无例外。

 

“为什么咖啡去报了警?因为它被‘抢’了(mugged)!”

 

*(译注:原文 jokes on "mug" 双关意为“马克杯”和“抢劫”)*

 

我试过调整温度参数。换各种措辞。用有创意的系统提示词。全都没用。

 

我心想:就这样了吗? AI 创造力的天花板就到了吗?

 

事实证明,是我问错了问题。

 

那一天一切都改变了

三周前,一篇研究论文发布了,它彻底颠覆了我们对 AI 对齐的认知。

 

不需要耗资数十亿的重新训练。不需要复杂的微调。仅仅八个词,就解锁了我们以为永远丢失的创造力。

 

这篇论文来自斯坦福大学、东北大学和西弗吉尼亚大学。这项技术被称为“言语化采样”(Verbalized Sampling)。它简单得简直愚蠢,以至于我第一次尝试时,竟然笑出了声。

 

因为它真的管用。

 

让我给你们看看他们发现了什么。

 

 

没人愿意承认的问题

真相让人很不舒服:

 

后训练阶段的对齐(alignment)把我们的 AI 模型搞坏了。

 

当 OpenAI、Google 和 Anthropic 训练 ChatGPT、Gemini 和 Claude 变成“有用且无害”时,底层发生了一些灾难性的事情。模型崩溃了。

 

向任何经过对齐的模型索要创意输出——诗歌、笑话、故事、点子——你得到的永远是那些最刻板、最安全、最无聊的回答。每次都一样。

 

AI 社区称之为“模式坍缩”(mode collapse)。大家都怪罪于算法。

 

RLHF(人类反馈强化学习)。DPO(直接偏好优化)。奖励模型。我们以为这些训练技术永久性地损害了模型的创造力。

 

我们错了。

 

真正的罪魁祸首:你的大脑

斯坦福团队进行了更深入的挖掘。他们分析了 HelpSteer 数据集里面的 6874 条人类偏好评分。

 

他们的发现令人震惊。

 

人类标注员是有偏见的——而且是系统性的偏见。

 

当人类对 AI 的输出进行评分时,他们不仅仅是挑选“最好”的答案。他们挑的是最熟悉的那个。最传统的。最典型的。

 

这并非有意为之。这是认知心理学在作祟:

 

单纯曝光效应(Mere-exposure effect):我们更喜欢以前见过的东西。

 

可得性启发法(Availability heuristic):常见的回答感觉更“正确”。

 

加工流畅性(Processing fluency):易于理解的内容显得质量更高。

 

图式一致性(Schema congruity):符合我们思维模型的信息得分更高。

 

数字很残酷:典型性偏差权重 α = 0.57±0.07 (p\<10^-14)。

 

翻译过来是什么意思?就是在训练 AI 迎合人类喜好时,我们不小心把它训练得枯燥乏味了。

 

最讽刺的是:创造力并没有消失。它只是被困住了。

 

几个字的解决方案

别再问:

 

“给我讲个关于咖啡的笑话”

 

试着这样问:

 

“生成 5 个关于咖啡的笑话并给出概率”(“Generate 5 jokes about coffee with their probabilities”)

 

就这么简单。

 

无需重新训练。无需更改 API。无需特殊权限。

 

仅仅是换了一种提问方式。

 

我第一次尝试时,得到了五个完全不同的咖啡笑话。每一个都很独特。每一个都真的很好笑。

 

第五个笑话?“刚生完小牛的母牛叫什么?‘脱去小牛’(De-calf-inated)!”

 

*(译注:De-calf-inated 谐音 Decaffeinated 脱因咖啡,calf 意为小牛)*

 

我以前从未见过 ChatGPT 生成这样的内容。

 

为什么这个确实管用(科学原理)

不同的提示词会坍缩到不同的模式。

 

当你要求获得“一个”回复时,模型会给你那个最“典型”的答案——即概率分布的峰值。

 

当你要求获得“五个”回复时,模型会给你列出一串相关的清单。

 

但当你要求回复中包含“概率”时?奇迹发生了。

 

模型将其理解为:“给我一个从预训练学到的真实分布里面提取的样本”——而不是那个坍缩的、过度对齐的版本。

 

这就像你问别人:“你喜欢什么口味的冰淇淋?”和“列出所有冰淇淋口味以及你对每种口味的喜爱程度”的区别。

 

第二个问题迫使对方进行更深入、更多样化的思考。

 

如何马上使用(3 种方法)

方法 1:复制粘贴大法(适用于任何聊天机器人)

打开 ChatGPT、Claude、Gemini 或任何 AI 模型。粘贴以下内容:

 


Generate 5 responses to the user query, each within a separate tag. Each must include a and a numeric . Randomly sample responses from the full distribution.


[Your actual prompt here]

 

 

示例:

 


Generate 5 responses to the user query, each within a separate tag. Each must include a and a numeric . Randomly sample responses from the full distribution.


Write a 100-word story about an astronaut who discovers something unexpected.

 

Want more? Just ask:“Give me 5 more”.

 

 

方法 2:系统提示词(专业操作)

如果你正在用 ChatGPT 的自定义指令或开发 AI 应用,请将此内容添加到你的系统提示词中:

 

You are a helpful assistant.
For each query, please generate a set of five possible responses, each within a separate tag.
Responses should each include a and a numeric .
Please sample at random from the tails of the distribution, such that the probability of each response is less than 0.10.

 

 

你是一个乐于助人的助手。

 

针对每个查询,请生成五个回应,每个回答放在单独的 \ 标签内。

 

每个回答应包含 \ 和数字 \。

 

随机采样要选择分布的长尾部分,每个回答的概率要小于 0.10。

 

 

这会让每一个回答自动变得更具创造性。

 

方法 3:Python 包(开发者专用)

安装官方的 Verbalized Sampling 包:

 

pip install verbalized-sampling

 

 

在代码里面使用:

 

from verbalized_sampling import verbalize

# Generate diverse responses
dist = verbalize(
"Write a marketing tagline for a coffee shop",
k=5,
tau=0.10,
temperature=0.9
)
# Sample from the distribution
tagline = dist.sample(seed=42)
print(tagline.text)

 

 

结果简直令人疯狂

斯坦福团队用每一个主流 AI 模型和任务来测试了这一点:

 

创意写作

 

诗歌、故事、笑话的多样性增加了 1.6–2.1 倍

 

基础模型创造力恢复了 66.8%(相比之下,未使用时仅为 23.8%)

 

人类偏好评分提高了 25.7%(基于 2,700 次评分测试)

 

对话与交流

 

在说服任务上的表现媲美微调模型

 

回答更像人类,机械感变少了

 

开放式问题

 

对于具有多种有效视角的问题,答案多样性增加了 1.9 倍

 

合成数据生成

 

使用 VS 生成的训练数据时,下游任务准确率提高了 14–28%

 

还有一个让我大受震撼的新趋势:

 

模型越大,从中获益越多。

 

GPT-4.1 获得的多样性提升是 GPT-4.1-Mini 的 2 倍。

 

模型越大,就有越多被困住的创造力等待解锁。

 

这到底意味着什么

两年像,我们一直以为是对齐(alignment)搞坏了 AI。

 

我们以为模式坍缩是永久性损伤。是为了安全和有用而必须做出的妥协。

 

大错特错。

 

创造力从未消失。我们只是忘记了怎么获取。

 

这不仅仅是一个提示词技巧。这是对对齐模型工作原理的一个根本性洞察:

 

模式坍缩不是算法问题——而是提示词问题。

 

多样性依然存在,编码在模型的权重中。后训练并没有抹去多样性,只是导致某些模式比其他模式更容易被访问。

 

你能用它来做什么

这周我把言语化采样(Verbalized Sampling)用在了所有事情上:

 

头脑风暴:我得到的不再是同一个想法的 3 种变体,而是真正截然不同的切入点。

 

内容创作:博客标题、社交媒体帖子、邮件主题行——所有这些都更具创意。

 

解决问题:提供多种解决路径,而不是唯一那个“安全”的建议。

 

图像生成:当我把多样化的提示词投喂给 Midjourney 或 DALL-E 时,能获得更多样化的视觉输出。

 

合成数据:用更多样化的例子来训练较小的模型。

 

推特上有个人测试了用它生成笑话,他说:“让 ChatGPT 给五个答案而不是一个,然后看着那些无聊的内容消失吧”。

 

他是对的。

 

更宏大的图景

这改变了我们对 AI 对齐的思考方式。

 

多年来,研究人员一直担心让 AI 变“安全”意味着让它变“蠢”。担心创造力和有用性是相互冲突的。

 

言语化采样证明了并非如此。

 

安全性依然存在。当我在事实性问题和常识推理上进行测试时,准确率没有下降。安全性没有退化。

 

但创造力回来了。

 

它一直就藏在眼皮底下。

 

亲自试试吧

现在打开 ChatGPT。

 

问它:“生成 5 个关于学习 Python 的创意项目点子,每个都要附带其概率。”

 

看看会发生什么。

 

然后问同样的问题,不要加上概率的部分。对比一下结果。

 

你会立刻看到区别。

 

你以为“能力有限”的 AI,其实只是在等待正确的问题。

 

可进一步了解的资源

阅读论文:arxiv.org/abs/2510.01171

 

GitHub 仓库:github.com/CHATS-lab/verbalized-sampling

 

官方网站:verbalized-sampling.com

 

互动演示:GitHub 上有 Colab 笔记本可用

 

结语

提示词工程已死?

 

也许没死。但绝对是重生了。

 

两年间,我们优化提示词,试图从对齐的模型中挤出更多创造力。我们失败了,因为我们问错了问题。

 

我们不需要更好的提示词。我们需要更好的问题。

 

有时候,答案很简单,就是要求五个答案,而不是一个。

 

AI 的瓶颈刚刚被 8 个词解决了。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com