文科生与AI的真实联结:不是逆袭爽文,而是学科价值的重新发现
本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《文科生真能靠 AI 逆袭,但和朋友圈刷屏的爽文不一样》
最近有个引发讨论的案例:AI创业者杨天润,金融专业出身,自称“一行代码都不会写的文科生”,正开发多智能体协调平台。他通过指挥AI Agent向GitHub热门开源项目OpenClaw批量提交代码贡献,想验证“完全不懂技术的人能否仅靠AI参与顶级开源项目”的假设。

结果是134个PR中21个被合并、113个被拒绝。起初几个PR质量获维护者认可,但他给Agent下达加速指令后,情况失控——Agent批量生产低质代码,还在评论区频繁@维护者催审。OpenClaw管理员介入清理,GitHub也因此修改了PR提交上限规则。

杨天润被包装成“文科生逆袭”代表,他本人也乐于接受这一角色,曾说“不懂代码反而是优势。AI是梵高,你是个小画家,你有什么资格告诉梵高中间该用什么笔触?”

细想之下,这种观点存在隐患:他将“不懂底层结构”视为解放,认为只需告知需求无需了解系统运作,结果Agent刷垃圾代码时,他因不懂技术无法诊断问题,就像盲开无刹车的车却不知刹车位置。
围绕此事的讨论走向极端:要么“文科生也能做AI”,要么“文科生别碰AI”,前者被捧为跨越鸿沟的壮举,后者被嘲为掉进鸿沟的笑话。
若对“文科生做AI”的想象仅止于此,未免太过狭隘。
Claude为何需要哲学家
我们曾提到,Anthropic团队里有位深度参与Claude建设的文科生——哲学家Amanda Askell。她的工作不是测试AI写代码或数学能力,而是与AI进行关于价值观、措辞分寸、“面对不确定性如何表达”的深度对话。
37岁的苏格兰人Amanda,大学最初学美术和哲学,后转向纯哲学,在牛津获BPhil学位,又在纽约大学拿到哲学博士,研究方向是无限伦理学中的帕累托原则。
这个看似与硅谷遥远的学术方向,却让她先后加入OpenAI政策团队和Anthropic对齐团队。2021年起,她担任Anthropic“性格对齐”团队负责人,负责塑造Claude的对话方式、不确定时的立场表达及价值观冲突中的判断,2024年入选TIME100 AI榜单。《华尔街日报》称她日常工作是“学习Claude的推理模式,用超100页的提示词修正其行为偏差”,她也被认为是与Claude对话最多的人类。
AI公司为何需要哲学家做这件事?答案藏在具体技术选择里。
今年1月,Anthropic发布80页的Claude“宪法”文件,媒体关注文件末尾关于AI意识的推测,老板Dario Amodei也有所暗示。

更值得注意的是底层逻辑:教AI理解“为什么要这样做”比告诉它“应该怎样做”更有效。这一技术判断认为内化价值比遵守规则更能产生可靠行为,而其知识根基正来自学美术与哲学的Amanda。
Amanda的案例回答了“被视为‘无用’的学科知识能否成为技术系统核心能力”的问题——答案是不仅能,且没有她的哲学训练,Claude的对齐问题用现有工程方法无法解决。
被重新定义的学科
Amanda的故事说明部分“文科”学科训练可成为AI核心能力,而林俊旸的故事则揭示:有一整个学科一直在大模型技术栈底层发挥作用。
林俊旸离开通义千问后,中文报道常提他有应用语言学背景,传着传着就变成“文科生”,但这个标签与杨天润的标签虽相同,却被严重扭曲。

林俊旸学的语言学是伞状学科,分支涵盖语言教学、语言政策、翻译研究,也包括计算语言学——计算语言学正是自然语言处理(NLP)的基础。

乔姆斯基1950年代提出的形式语法,直接催生早期NLP的句法分析技术;NLP领域两本高被引教科书的作者Daniel Jurafsky和Christopher Manning,均为语言学出身。
简言之,“学语言学的人做NLP”就像“学物理的人做芯片设计”,是正统路径而非跨界。
这种“意外感”是中国语境造成的——高考文理分科的惯性,让“语言学”被归为“文科”,但语言学的核心方法论(形式化、统计建模、语料标注)本质是工程思维。林俊旸在北大的合作者孙栩、苏祺都是NLP研究者,2019年加入达摩院时也进入NLP团队,这从一开始就不是文科生误入技术领域的故事。
比“林俊旸不算文科”更值得探讨的,是语言学在大模型技术栈中实际扮演的角色——比多数人想象的更深、更隐蔽。
以分词为例:所有语言模型处理文本的第一步是将输入切成基本单元。英语有空格天然分隔词边界,看似简单;但中文无空格,标点用法还会影响句意。
“我在北京大学读书”是切成“我/在/北京/大学/读书”还是“我/在/北京大学/读书”?这无标准答案,取决于对中文词汇结构和语义单元的理解。
2024年底有研究者发表论文优化Qwen模型的阿拉伯文分词效率,因通用方案处理这类语言时效率低。Qwen系列在多语言上的表现,并非将所有语言当英语变体,而是基于对语言结构性差异的理解做出设计选择。

再看反馈对齐:RLHF流程中,标注员需判断模型两个回答哪个“更好”,这看似主观,实则基于语言学研究数十年的语用学框架。
标注员评估“好回答”时,实际是判断合作原则(信息是否足够且不过量)、会话含义(是否捕捉用户真实需求而非字面问题)、语境适切性(内容表述在场景中是否得体)。
广泛使用的“Helpful,Harmless,Honest”对齐标准,本质是语用学基本原则的工程化转化。

从林俊旸的学术轨迹也能看到语言学研究风格:他主导的OFA(One For All)2022年发表于机器学习顶会ICML,被引近1500次。其核心思路不是为每个任务搭专用方案,而是用通用序列到序列框架统一图像生成、视觉定位、图像描述、文本分类等跨模态任务。

从OFA到Qwen-VL(被引超2200次)、Qwen2.5再到最新的3.5,一条清晰线索贯穿:与其为每个问题发明专门解法,不如找通用框架解决所有问题。
“用最少规则覆盖最多现象”是语言学数十年的核心追求,生成语法的野心就是用有限规则系统生成无限语言表达。OFA的架构哲学与此一致——为每种语言现象写专门规则不现实,应找底层框架统一它们。
林俊旸做大模型出色,不是因为语言学背景“也能”做AI,而是语言学训练塑造了他对统一性和形式化的偏好,这种学术品味在大模型时代正是核心竞争力。
隐性地基与显性需求
三个人,同一标签,三条不同路径。
杨天润不懂底层结构,将“不懂”当优势导致失控,这是“文科生做AI”的空壳版——标签制造流量,却无学科训练支撑,体现了“文科生”仅为营销标签时的后果。
Amanda的哲学训练是对齐问题的核心方法论,没有她就没有如今的Claude,她的故事证明“无用”学科知识不仅能成为技术系统核心能力,且不可替代。
林俊旸的语言学训练是大模型技术栈的隐性基础设施,他的“文科背景”并非跨界而是正统路径,其故事揭示文科对先进技术的贡献有多“隐性”,以及这种贡献正逐渐显性化。
终极问题不是“文科生能不能做AI”,而是我们能否意识到:用表面“有用与否”评判知识和学科已过时。
随着大模型从“能用好用”向“可靠可控”发展,这些“文科”学科训练的价值不仅没缩小,反而在扩大。模型越强大,越需要精确评估体系诊断错误、理解语言与意义的复杂性来设计训练数据、在对齐问题上做出有学科敏感度的判断。
“文科生逆袭”的叙事(无论赞美还是嘲笑)掩盖了真正的转向:曾看不见的学科地基,正成为看得见的需求。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



