中国AI长卷(三):算法长根
文|脑极体
"中美 AI 差距到底有多少年?“这个问题困扰了很多人,也有很多声音试图让中美 AI 实力进行比较。在这些方面,算法必须是判断的首要标准。
中美 AI 究竟什么水平的算法?可以用“第七个烧饼”来理解。
ChatGPT 便是 AI “第七个烧饼”。深度学习算法的热潮已经持续了十多年,最终还是在 LLM(大语言模型)智能出现后,我们看到了实现通用人工智能的曙光。就像一个饥饿的人一样,他吃了六个烧饼,直到吃完第七个烧饼,他终于感到饱了。
OpenAI 以美国公司为代表,在底层R&D和核心算法方面占据领先地位,率先吃到。 LLM “第七个烧饼”。随后,中国也迅速跟进了这一领域,并迅速推出了对比。 ChatGPT、GPT-4 等级算法模型。
对于这一点,有人欣慰:虽然我们晚了一步,但我们也吃到了“第七块烧饼”(中国没有错过大模型的机会)。
有些人生气:这次技术突破又是由美国企业主导的,他们肚子里比我们多几块烧饼(美国至少领先我们十年)。
有些人蒙蔽了双眼:早知道吃第七个烧饼就可以饱了,前六个都不应该买(大模型前的智能探索都白干了)。
还有人质疑:中国根本没有做烧饼的能力,因为其他摊主公开了做烧饼的配方(谷歌。 Transformer、OpenAI GPT-1/GPT-2 全部为开源)。
上述不同的情绪,各有各的道理,源于对算法的不同认识。
《终极算法》的作者写道:在农业中,人类播种,确保种子有足够的水分和营养,然后收获完美的作物,这也是机器学习的承诺。算法是种子,信息是土壤,程序是完美的作物。
算法是将大规模数据转化为更合理、更智能的决策复杂程序,模型是其软件形式。算法模型, AI 产学界最重要的“收获”。
从这个角度来看,简单对比一下中美谁先赢。 ChatGPT,其实意义不大。公众真正关心的是,中国是否有能力让算法“种子”播种、生根、生长、结果,是否能保证中国接下来能吃到新算法的第八、第九……甚至第一…… N 块 “烧饼”,不断满足各行各业的享受。 AI 的需要?
要弄清楚这个问题,我们必须回到第三次。 AI 浪潮的开始,回到深度学习算法这个“种子”刚刚萌芽的时候,看看它是如何在中国根深蒂固的。
01
今日我们已知,深度学习是连接学派的主要算法,主导了第三次。 AI 浪潮。
但问题是,深度学习并非如此。 2011 年才横空出世的概念。早在 20 世纪 40-60 在时代,控制论中出现了深度学习的原型。核心技术反向传播算法是多层神经网络的训练,是 1986 2000年提出。联系流派, 2006 每年都在振兴。
那么,为什么,深度学习在? 2011 2000年左右,才正式掀起了一场大约 AI 新高潮呢?
其背后有三个要素,形成了“种子萌芽”的深度学习土壤:
1. 数据量的增加。深度学习算法的中心思想是将大量的计算单元连接起来实现智能行为。这个多层神经网络类似于大脑神经元,依靠大数据进行学习和训练,而互联网和智能手机为2011年提供了更好的数据基础。 2012年谷歌大脑成功识别了一只猫。 2008年苹果推出 Siri,成为深度学习算法的先锋。
2. 差错率越来越低,或者模型效果越来越好。2012 一年,多层神经网络 Alex Net 在 ImageNet 大的视觉识别挑战(ILSVRC)获得冠军,并且大大超过了使用传统机器学习算法的第二名,从那以后,深度学习每年都会获胜,证明了算法的有效性。
3. 应用越来越成功,深度学习逐渐成为主导算法,被工业界用来解决许多实际问题。,将上一代智能产品与应用相结合,使语音识别、图像识别、图像识别、NLP 等待任务得到改进。
当时在中国,大数据、技术能力、智能产品,有没有条件让深度学习萌芽?有两种力量可以。一是以 BAT 作为互联网公司的代表,首先,以科大讯飞为代表的早期阶段 AI 公司。
BAT 以中国互联网公司为代表,拥有海量的数据、国际视野和人才团队,以及搜索、语音、电子商务等数字业务和应用。拥抱深度学习算法是必然的。
2010 2008年,百度成立了现任自然语言处理部门。 CTO 在语言和知识技术方面,王海峰领导,提出了“自然语言立足中国,面向世界一流水平”的定位。2012 2008年,百度积极关注并接触深度学习领域的领军人物。 Geoffrey Hinton,并于 2013 年建立了 IDL 2014年深度学习研究所 每年又建立了大数据实验室 BDL、硅谷人工智能实验室 SVAIL。此外,腾讯也是如此 2012 2008年,优图实验室成立,阿里巴巴成立。 iDST(数据科技研究所)。
另外一条探索路线,是以科大讯飞为代表的早期阶段 AI 公司。
这几家公司大多是中国在智能领域的早期探索者,比如科大讯飞。 1999 2008年,创始人团队主要来自中科大电子工程系人机语音通信实验室。
在 2011 多年前,科大讯飞以智能语音技术为核心,探索了科大讯飞联合高校开发的复杂语音合成和语音识别引擎等一系列技术和商品,打破了海外厂商的垄断,其语音软件在教学、电信、金融、学习机等领域得到了商业应用。由于深度学习算法在世界范围内崭露头角,科大讯飞有意愿、有实力、有场景,将深度学习与原有的智能语音业务相结合。在 2011 中文语音识别每年上线。 DNN 系统,2014 2008年启动“讯飞超脑计划”,探索“计算机能够理解和思考”的感知智能和认知智能。
2023 2008年,面对“中国什么时候有类?” ChatGPT ""中美 AI 十年、三十年的技术代差焦虑情绪, BAT、作为中国大型模式的第一梯队,科大讯飞等公司迅速带来了文心、混元、通义、星火等基本大型模式。当然,这不是取出源头的“果实”,而是深入学习算法的“种子”。它在萌芽之初就在中国扎根。 AI 在土地上,并且继续生长。
02
神经网络深层卷积(CNN)主要表现在图像识别和其他视觉任务中,打开了 AI 1.0 阶段的序幕。
具体来说,虽然之前传统的机器学习算法的识别精度和准确性也在提高,但准确性和识别效率并不能同时得到保证,很难达到应用规模。还有卷积神经网络 CNN 由于参数共享和稀疏连接,特别适合处理图像数据。通过大规模图像数据训练获得的深度卷积神经网络模型,可以不断从底层特征中获得更高层次的特征(机器可以理解),最终更好地处理下游任务(机器可以看到)。
CNN 作为核心技术,在图像识别、目标检测、图像分割、图像生成等算法方面取得了长足的进步。2014 2008年,香港中文大学团队首次将机器在面部识别任务上的表现超越人类,被视为 AI 1.0 里程碑事件的阶段。
对智慧城市、智能安全等概念的兴趣叠加,CV 随着计算机视觉的快速发展,它已经成为深度学习最成功的应用。
这个阶段,沐浴在新算法春风中茁壮成长,当然也是如此。 CV 公司。
2014-2017 近三年来,无视科技、商汤科技、图形科技、云从科技相继成立。依托领先的计算机视觉技术,成为行业领导者和资本市场的宠儿,估值迅速上升,成为众所周知的“ CV 四小龙”。它们的算法模型在城市、安全、医疗影像、工业质量检验等领域得到了广泛的应用。
当然,除 CV 此外,我们也不能忽视深度学习算法。 NLP、在许多领域,如语音、自动驾驶等,给许多行业带来了发展动力。
比如长短期记忆网络 LSTM 语音识别的准确性有了很大的提高,智能助手在此期间取得了显著的性能提升,海外苹果 Siri、谷歌 Google Assistant、亚马逊 Alexa、微软 Cortana 等等,国内百度小度、阿里天猫精灵等,集成到各种智能终端软硬件中,并且开启了以语音交互为核心的智能家居元年。
自然语言理解、循环神经网络(RNN)和 LSTM 应用于语言模型、情感分析、机器翻译等等 NLP 任务。举例来说,这个阶段的机器翻译,就是从统计机器翻译。(SMT)进入到 NWT 神经机器翻译时代,算是日新月异,中国的 BAT(百度,阿里,腾讯)、科大讯飞、搜狗等公司,都在各自的产品中部署。 NWT,在线翻译的连接性、准确性和语感都有了很大的提高。
同时,深度学习也可以支持无人驾驶汽车的感知和决策,吸引大量投资基金的兴趣,进入快速发展的黄金时期。百度在 2013 2017年启动无人驾驶汽车项目, 年推出了 Apollo 平台上出现了一批面向小马智行等的平台。 L4 创业公司的自动驾驶技术。
总的来看,AI 1.0 在这个阶段,深度学习算法取代了传统的机器学习算法,成为了这个阶段的主要算法,成为了许多领域。 AI 这项任务带来了跨越式的发展。
然而,现阶段的算法模型开发仍然是一种“手工作坊模式”,人们开玩笑说“有多少劳动就有多少智能”。依靠对大量数据的依赖,需要建立一个庞大的标记团队,模型缺乏泛化性,专门为特定任务设计,开发人员需要花费大量的重复开发和手工迭代优化。
从“手工作坊”到“工业化” AI “工厂”,算法仍然需要一场演变。
03
凯文凯利说,技术带来的问题,只能通过技术进步来解决,算法也是如此。
从 AI 开发,从过去的手工作坊式升级到工业化,预训练模式是一种可以大规模生产高性能的模式。 AI “工业生产线”模型。
2017 2008年,谷歌论文《Attenlion is All You Needs》提出了 Transformer 架构。上一阶段流行的卷积神经网络没有使用。 CNN、循环神经网络 RNN、长期记忆网络 LSTM、GRU 等待结构,只使用自注意。(Self-attention)引入注意机制和预训练模型的特点(PTM)。表现出前所未有的能力,如机器翻译、机器阅读、自动问答、情感分析、自动摘要、语言建模等。2018 年,基于 Transformer 预训练语言模型结构 BERT,刷新了 11 项 NLP 最佳性能记录任务。同年,OpenAI 推出了 GPT-1。
基于 Transformer 通过模型预训练,结构的预训练模型可以带来效果明显、质量更高的算法模型,只需微调下游任务即可应用。这种“预制菜”的“工业化方式”改变了小模型定制的弊端,使其大规模、可复制 AI 应用程序成为可能,成为 AI 走下一个时代的必经之路。
在走向预训练模式的道路上,中国几乎与世界一流水平同步,这是由于云智合流的一个关键变化。
建立一个预训练模型,最难的一个,就是专用算率不够,有的学校甚至没钱买。 GPU 卡,没有 AI 使用计算率。与此同时,现阶段很多市企客户加快上云速度,也希望智能升级,以更方便的方式获得算法能力。
幸运的是,在这一算法变化的关键窗口期,云 AI 整合基础设施,已在建设中。
2017 年,将 AI 华为云诞生了技术作为核心能力。2018 2008年,百度云改名为百度智能云,阿里云升级为阿里云智能。 AI 引入公有云的能力版图,成为主流。
云智合流,让 AI 从“手工业”发展到“工业化”,将原本分散在算法整个生命周期中的各种需求“结合”起来。:
1. 算率结合。预训练模型不仅需要巨大的异构率,还需要极高的灵活性。从训练到推理的每一步,所需的计算率都有很大的不同。通过云厂商的基础设施,企业可以灵活、灵活、根据需要访问各种充足的土地 AI 计算率。计算能力的获取方式变得简单、高效、低门槛,这使得更多的人参与其中 AI 研究开发算法模型,进入大规模生产阶段。
2. 流程结合。借助于云厂商提供完整、全栈。 AI 能力和开发工具包括预制数据、模型库、算法库等。,这样企业和开发人员就可以在云上完成培训。-开发-推理-整个部署阶段。比如百度智能云 EasyDLBML 平台,华为云 AI 开发生产线 ModelArts 等。
3. 商品结合。时间来到 2018 2008年,智慧城市、智慧园区等。开始追求整体智能,希望构建一体化、解决方案化的“ AI 大脑,整合算法,芯片,云算率,框架,网络,IoT 等待软硬件,实现智能决策能力的质变。在这种情况下,云制造商和 AI 企业必须把自己变成一个“” AI “超级市场”,集成供应丰富。 AI 技术能力和应用,使行业用户和开发者能够系统、快速地获得所需要的内容。 AI 能力。
举例来说,百度智能云率先在业界提出了“云智一体化,深入产业”的观点, 200 多种产品和数十种解决方案,百度 AI 在金融、物流、工业、农业等多个行业都有技术释放。华为云在 2021 盘古大模型于2008年启动,并在 2022 年度聚焦行业应用,打造盘古气候大模型、盘古矿山大模型、盘古电力大模型、盘古药物分子大模型等。基于盘古大模型的通用能力。
可以说,中国是云智合流 AI 跟上 ChatGPT 大型路线,奠定基础。
2023 2000年以来,在国外计算率形势日益严峻的背景下,国内预训练模型依然完成了“井喷”,在文本处理、图像生成、音视频生成、多模式等多项任务中占据了一席之地。放眼世界,只有中美两棵茂盛的树。 AI "榕树"。
让这种深入学习算法的“种子”在中国扎根、生长、完善,这本身就是一种能力的自我证明。
回顾十几年的深度学习历程,也许一个具体的算法会被更新更好的算法所取代,但这个反复更换的过程也让中国 AI 时间变得越来越坚韧,积累经验,聚集人才,释放自信。
只需不可动摇,任尔东西南北风,中国 AI 在每一个技术趋势中,都可以生长出新的枝丫,生长出行业期待的果实。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




