今年的AI故事,还能讲多久?

09-13 18:18

今年年初,我向父母展示了一些面向C端市场的AI产品。他们之前几乎没有接触过任何AI模型,所以当我告诉他们现在的AI技术有多发达的时候,他们认为这只是siri语音助手的变异。


然而,在我通过语音聊天向AI提问并得到一个非常自然流畅的答案后,我的父母震惊了——他们用不可思议的眼神看着我,问了一个经典的问题:


"刚和你说话的那个,难道不是真人吗?"



AI数字人示意图


在我让他们试着玩了几次之后,他们终于确信自己真的在和AI打交道。接下来的一两天 ,我爸爸还安装了这个AI产品,玩得很开心。甚至一个星期后,我爸还在给我分。 享受AI写的诗、画。


接着,就没有了。


由于这种AI商品带来的新鲜感已经消退。


最近几天,科技界最热门的话题应该是苹果iPhone发布会,它被称为“科技春晚”。


但是很明显,苹果的“科技春晚”和“春晚”一样,吸引力已经不如以前了——从那以后,iPhone5S就不再发布了。 等待的盛况——相反,华为三折手机引起了不少讨论。



也许这就是一张脸 对于消费市场的残酷:客户很容易喜新厌旧,如果不能继续带来新的商品,那么很快,你的市场就会被竞争者侵蚀——支撑iPhone最初的地位是前所未有的创新感受,但是现在,随着整个智能手机供应链的兴起,每个家庭的产品都已经达到了一个很高的层次——iPhone可能再也不会给我们带来原来的新鲜感了。


看看现在的AI,感觉好像也是这样的故事。而且因为大模型的迭代速度比芯片高很多,相应的,“下头速度”自然会更快。


就在上周末,一张来历不明、显示Chat-GPT浏览量悬崖式下跌的图片引发了华尔街的动荡,随之而来的是AI公司如英伟达、谷歌、亚马逊和Meta的股票下跌。



网络地图,看起来是个大乌龙。


尽管最后被证明是乌龙一场,但是这种鸡犬不安的场景也很有趣:


假如你真的相信AI是未来,


又怎能被一张来历不明的网图所迷惑呢?


您对AI的信念,


原来这么脆弱吗?


现在,我们来谈谈:今天这个版本的AI故事,究竟能讲多久?


01 “低端需求”


我曾经遇到过一些已婚夫妇:第一次见面什么都好,朋友圈里全是“如果你是彩虹,遇到你就知道了”的狗粮;但是几个月后,在正常的日子里,当他们私下喝酒时,他们开始为我吐槽各种琐事和争吵。


人类还是那两个人,都是好同志,


但是情景变了,现在真的要事上见了。


因为现实生活中的问题,种类太多,太具体:换好的衣服及时清洗了吗?厨房的餐具清洗干净了吗?你买太多的食物还是太少的食物?为什么昨晚没有扔垃圾?你想去医院看看宠物最近的食物摄入量下降吗?中秋节假期快到了。你想回老家看看你的父母吗...


这类零散、琐碎、不涉及大是非的问题,往往会引发一场热烈的争吵,而案件价值一般不超过20元。


当事人通常会感到自己瞎了眼,但是我们都知道,这并非瞎了眼的问题:


新鲜感过去了,你开始用另一个更加务实的KPI系统来衡量对方,不再像热恋期那样单纯的看脸或者看性格。


事实上,这波由Chat-GPT引领的生成式AI的态度也是如此。


一年多前,当Chat-GPT刚刚出现的时候,全世界都为之惊叹——因为它确实表现出了强大的智慧,它真的可以理解我们在说什么,像样回答问题,来回和我们聊天,尤其是在处理翻译任务的时候,大模型几乎把所有的翻译软件都挂了。



但是后来,整个行业充满了竞争对手。


毕竟大模型不是光刻机,Chat-在GPT证明了生成式AI的未来之后,伏击的竞争对手立刻蜂拥而至——无论是美国的Claude。.ai也是中国的文心一言和通义千问,从技术到感觉,都很快跟上了Chat-GPT的节奏。


然后,我们和AI的“恋爱期”到此为止,因为我们也应该用更务实的眼光来看待AI。更专业的说法是,人们对AI的态度正在“回归理性”。


接着,大家才知道:原来AI也不过如此。


目前的AI似乎只能处理我们的“低端需求”:


我曾经让AI给我一个文章大纲,但是反应很快。从原因到影响,我列举了几十篇文章,但是我受不了仔细看,因为它根本没有优先级的概念——我文章的关键是描述事情背后的原因。结果AI只把原因分析部分当成了一个普通的章节。


7月份去北京出差,和朋友约好在烧烤店吃饭,拿到菜单就开心了。因为菜单上的背景图一眼就能看出是AI的笔触——人物的手被画成了麻花。



我曾经试图让AI帮我模仿王维的风格,写一首“冷气质”的诗。结果AI马上给我带来了一个“老干部”,吓得我赶紧关门。



对于AI作曲来说就更离谱了。反正我自己的歌词让AI帮我编曲之后,听了三秒就把耳机扯下来了。TM太尴尬了。估计我这种脸皮薄的人,再听一分钟就直接进ICU了。


……


用我朋友对AI的描述来说,每次用AI辅助工作,都觉得自己在给一个刚离校的见习生分配任务——年轻人真的很努力,很听话,但是脑子不是很好,工作太粗糙,只能做最基本的事情。


大型制造商总是担心DAU和使用时间。不得不说,他们的担心是有原因的。以目前很多AI产品在实践中的应用体验来看,人们真的很难把AI当成可靠的工具或者熟悉的伙伴。


当AI落地时,它应该是一个工具,而不是一个玩具。AI应该是我们工人的老师傅,而不是让我亲自去“传帮带”的见习生。


02 瓶颈期


为何今年的AI商品只能满足一些基层需求?为什麽感觉AI也不过如此?


这个问题,还是要从底层的技术原理出发。


就拿Chat-GPT来说,建立一个像Chat-GPT这样的大语言模型,大概需要以下几个阶段:


首先,你需要大量的数据,比如各种小说,各种新闻,各种视频和音频,但总之,你要准备一个足够大的“词库”来学习,为了提高它的学习效率,你要把所有这些数据都做成标准化的数据,这样模型才能更好的接收。


在此之后,像Chat-GPT这样的大型模型基本上都是围绕着Transformer结构,这个结构我们就不多说了,说起来太复杂了,我们只需要知道,这个结构的目的是它可以根据我们人类所说的语法输出内容,从某种意义上说,它相当于AI的语言中心和喉舌。



下一步就是通过各种技术对AI进行训练,然后通过参数调整和一些改进,最后让它能够理解我们输入的信息,并做出合理的回复。


但需要注意的是,“合理的回应”并不意味着“有用”,更不意味着“拟人化”——当我的兄弟给我发一些离谱的东西时,我通常只有他一串“哈哈哈哈哈”或者一个“6”,心情不好的时候,他会回复“生病了”。但是AI通常会假装礼貌,认真地说“这真的是一张非常有趣的图片”。


虽然前者不合理,但却非常真实。


虽然后者很合理,但是很不真实。


造成这种尴尬的根本原因在于它的研发方式:


与之前的RNN架构相比,GPT使用的是Transformer架构,Transformer可以更好地理解单词与单词之间的顺序关系,可以显著提高大语言模型的练习速度,并且可以判断哪个单词在一个句子中更重要,从而达到“有针对性”的目的。


乍一看似乎没有什么问题,但是经不起仔细琢磨。


因为一遍又一遍,GPT所做的一切都是在语言上下功夫,不断地“猜谜”,而非在认识世界。


体现在实际应用中:如果让GPT做翻译工作,可以达到99分的水平;但是如果让它回答你的一些疑惑,可能只有60-70分。


简单来说就是:我说天气凉了,AI自然会告诉我穿长裤。但AI之所以这么说,并不是因为它知道穿长裤会让人感到温暖,而是因为“天冷”和“长裤”这两个词总是一起出现在它的训练材料中——它不知道天冷了怎么办,但它知道只要你说天冷了,它就可以通过“穿长裤”这句话。


类似于其它兄弟常说的“多喝热水”。



归根结底,这是AI大模型开发技术中常见的问题:AI真的可以理解我说的每一个字,做出合理的答案——但它回答的前提不是基于对事物发展规律的认知,而是通过学习海量数据和MLM这样的“猜谜”训练,给出了一个“看起来可靠”的答案。


AI视频产品在这个问题上特别露骨。虽然AI生成的视频有时可以在画面细节上极其模拟,但一旦涉及到物理效果,猴子的屁股会立即暴露出来。——在现实世界中,它无法理解物理碰撞的结果,它只是猜测你想看什么。


Chat-GPT现在已经进化到5.0版本(虽然还没有正式上线),当然一代人在性能上比一代人强,但这种增强的基础是,它越来越快地解谜,越来越强烈地解谜,而不是真正增加智慧。


结语


这个AI的故事,还能讲多久?


行业对这一问题的应对策略,是另一种完全不同的思路——加强学习(RL)。


如果说“深度学习”的能力在于理解语言,能够在自然语言理解和语音处理上表现出色,那么“强化学习”就更像是在学习理解现实世界——外界不会给系统任何指示,系统应该自己尝试探索和尝试,然后在这个探索过程中获得知识,从而使自己越来越强大。


在这个过程中,系统追求的是最大化“奖励信号”。这就像一个网络游戏。系统不断与外部环境互动,每一个动作都会得到“奖励信号”。做得越好,“奖励信号”就越大。为了获得更多的“奖励信号”,系统必须学会自己做出更好的决定。


用更加生动的词语来描述就是:


AI相当于学生,人类是教师——基于“深度学习”的AI,他们使用“人类教师”提供的“数据”。在学习的过程中,他们应该一直受到“人类教师”的监督——那些符合“人类教师”口味的人会受到鼓励,那些不符合“人类教师”口味的人会被抛弃。


基于“强化学习”的人工智能学生更像是自学成功。“人类老师”只领进门,修行靠自己努力。很多时候,他们没有“学习资料”或“监督指导”。“人类老师”给他们的指令是不断学习。其实“人类老师”并不确定自己能学到什么。



所以,我们可以看到:


基于“深度学习”的人工智能在语言逻辑、语音理解、图像理解等方面表现极佳,因为这些东西的概念权掌握在人类手中,人类随意的一句话落入人工智能的耳朵,就像神谕一样不可否认——人工智能能做的就是无限贴合人类的口味,让自己表现得和人一样。


基于“强化学习”的AI人,无论是自动驾驶系统教育老司机,还是AlphaGo哭柯洁然后被AlphaZero炸飞,往往都在和人类比较。事实上,它们都反映了一个结果:在“强化学习”下,AI人往往能比人类做得更好。——因为人类需要吃饭睡觉,但是AI不需要。在高性能芯片的加持下,AI训练一年来看到的棋局和游戏,通常比一个职业棋手和职业电竞玩家十辈子看到的多。


归根结底,根据OpenAI本身的评估系统,像Chat-GPT这样的AI应用,实际上只是最初的L1水平,只是一个聊天机器人,一个有对话能力的AI。而且基于AI的强化学习,可以达到L2级别,也就是说,可以达到和人类一样的解决问题的能力。


而且现在,我们已经站在了一个关键时刻:


因为大语言模型,我们也开始走“加强学习”的道路。在AI演讲之前,我们也应该动动脑筋——OpenAI一直在研究“Strawberry"(草莓)项目,是一种基于强化学习的大语言模型。


基于强化学习,有自己想法的大模型很可能在不久的将来一两年内上线,


这么大的背景下,我真的不知道这个AI的故事,还能讲多久。


本文来自微信微信官方账号“星海情报局”(ID:作者:星海老局,36氪经授权发布,junwu2333)。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com