全球AI竞赛:中国和西方的差距在哪里?

06-18 14:01

作者 | 张伟 中国人民大学商学院华夏基石数字化运营专家 MBA 导师


来源 | 管理智慧


咨询合作 | 13699120588


本文仅代表作者自己的观点。


人工智能(AI)在全球范围内,技术的发展引发了一场新的技术革命。这场革命不仅改变了商业模式和社会结构,而且在我国之间的科技竞争中发挥了重要作用。在中国和西方国家 AI 在技术发展方面存在差距和竞争。本文将从技术研发、应用领域、数据资料等方面对中西方进行深入分析。 AI 这一竞争的可能性和重要性在技术发展上存在差距。


技术研究与开发的差距


01


技术基础和创新能力


欧美国家,尤其是美国,在技术研发方面,具有较强的基础研究能力和创新能力。美国拥有世界级的科技公司和研究机构,例如 OpenAI、微软,谷歌,Facebook、麻省理工学院(MIT)、斯坦福大学等。 AI 基础研究和技术创新在该领域处于世界领先地位。例如,谷歌 DeepMind 该团队在深度学习和加强学习方面取得了重大进展, AlphaGo 这个项目在围棋比赛中击败了人类的顶级选手,展示了 AI 技术潜力巨大。


相比之下,中国在 AI 基础研究起步较晚,但近几年在技术创新方面取得了显著进步。百度、阿里巴巴、腾讯、讯飞等中国科技公司在 AI 应用领域发展迅速,特别是在自然语言理解、计算机视觉、智能语音识别等方面。另外,清华大学、北京大学等中国顶尖大学也在 AI 在研究方面取得了一定的成果。但总体而言,中国在基础研究和前沿技术创新方面与西方仍有一定差距。


一个典型的表现就是,Transformer 当今人工智能的结构(AI)谷歌研究团队是该领域的关键技术之一。 2017 2008年提出,并立即在全球范围内得到广泛应用。作为一种创新的神经网络结构,Transformer 理解自然语言(NLP)这个领域的表现特别出色。这是一种自注意力机制(Self-Attention Mechanism)在处理长文本时,解决了传统序列模型的效率和准确性问题,从而显著提高了语言逻辑和生成能力。


不仅仅是谷歌的贡献提出了这一点。 Transformer 结构,也在于不断推动其优化和应用。例如,谷歌推出的 BERT 模型(Bidirectional Encoder Representations from Transformers)在多个 NLP 在任务中取得突破性成绩,成为学术界和工业界的重要标准。


OpenAI 则在 Transformer 在结构的基础上,其影响力进一步放大。通过开发 GPT(Generative Pre-trained Transformer)系列模型,OpenAI 展现了 Transformer 强大的生成任务能力。尤其是 GPT-3,因其 1750 十亿参数的规模,而且 GPT-4 它达到了数万亿的参数,完成了前所未有的语言生成效果。它可以广泛应用于各种复杂的任务,如对话、写作和翻译。 AI 应用领域。


这一结构的成功,促使 Transformer 几乎成了所有的现代 AI 底层结构的大模型。不管是谷歌的 BERT 和 T5,还是 OpenAI 的 GPT 系列,以及 Facebook 的 RoBERTa 等,Transformer 结构的影响无处不在。它具有高度并行的计算能力和优异的处理长序列数据的性能,从而达到 AI 这一领域占有重要地位。


相比之下,中国在 Transformer 虽然在架构的应用和发展上取得了一定的进展,但总体上仍然处于追逐趋势。基于百度、阿里巴巴、腾讯等科技巨头的推出, Transformer 像百度这样的模型 ERNIE、阿里巴巴的 AliceMind 和腾讯的 Hunyuan。但是,与西方顶级模型相比,这些模型在规模和影响力上仍然存在一定差距。


02


KIMI的崛起


值得注意的是,Kimi AI 这是一家由中国北京创业的公司。 Moonshot AI 开发大型语言模型(LLM)聊天机器人,旨在与之交谈 OpenAI 的 ChatGPT 等国际顶尖 AI 模型竞争。Moonshot AI 在阿里巴巴集团和红杉资本等投资者的支持下,发展迅速,最近的一轮融资超过了 10 亿美元,使其估值达到亿美元 25 亿美金。


Kimi AI 之所以引起广泛关注,根本原因是它对自然语言的理解。(NLP)各方面的强大能力。这个模型可以处理多达 200 一万个文字的长文本,这种能力在同类产品中处于领先地位。Kimi AI 能对复杂的文本内容进行分析和理解,提供准确的答案和分析。从法律到金融,从学术研究到新闻写作,这使它在许多领域都表现出巨大的潜力,并能发挥重要作用。


1. Moonshot AI公司背景


Moonshot AI 创立于 2023 年,仅仅三个月后,第一轮就完成了。 2 融资亿美元。创始⼈中国是杨植麟 35 岁以下 NLP 领域引⽤最⾼的研究者,Transformer-XL 和 XLNet 两篇重要论⽂第⼀作者,技术团队包括来自清华大学的学生和全球科技巨头的资深人士,他们拥有丰富的R&D能力和技术实力。Moonshot AI 致力于推动 AI 通过不断优化和扩展其模型能力,技术的应用和创新旨在国际化。 AI 在比赛中占有一席之地


2. KIMI与国际顶尖AI的对比


虽然 Kimi AI 在中文处理和长文理解方面表现出色,但与 OpenAI 的 GPT-4、Anthropic 的 Claude 3 以及谷歌的 Gemini 与之相比,仍然存在一定的差距。主要差距体现在以下几个方面:


1. 基础研究与创新能力:西方科技巨头 AI 基础研究投入巨大,技术创新不断。相比之下,中国在这些方面的积累还需要时间。


2. 数据和计算能力:虽然中国拥有庞大的数据和强大的计算基础设施,但仍有提高数据管理、数据质量和计算效率的空间。


3. 拓展国际市场的能力:Kimi AI 与国际领先模式相比,在品牌知名度和全球市场覆盖方面还需要进一步努力。 。


3. KIMI面临挑战和机遇


Kimi AI 快速崛起也带来了一些挑战,包括如何处理数据隐私和算法偏见。同时, AI 发展技术,Kimi AI 正面临着全球市场的激烈竞争。要想在这个领域取得更大的突破,Moonshot AI 为了满足全球市场的需要,需要不断推进技术创新,加强国际合作,不断优化其产品。


即便如此,Kimi AI 中国的成功显示出来 AI 技术潜力巨大。通过不断的技术研发和市场开发,Kimi AI 预计未来几年将缩小与国际顶级模型的差距,提高其在世界范围内的差距。 AI 地位和影响力在市场中。


Kimi AI 和 Moonshot AI 代表中国的存在 AI 在全球范围内,技术领域的一次重大尝试和突破 AI 在竞争中快速追求的决心和能力。伴随着技术的不断发展和市场的不断扩大,Kimi AI 有望成为世界 AI 一种技术中坚力量。


03


总结


但是总的来说,中国的 AI 研究起步较晚,基础研究和技术积累相对较弱。尽管近几年中国在 AI 该领域的投资和研发力度不断加大,但与谷歌、OpenAI 与西方科技巨头相比,顶尖人才、创新能力和资源整合仍然存在差距。


尽管中国面临着许多挑战, Transformer 结构的应用和研究也显示出强大的潜力。中国有望在未来通过不断的技术创新、国际合作和人才培养, AI 在比赛中取得更大的突破。总之,Transformer 作为现代的架构 AI 大型模型的基础,其在世界范围内的成功应用,不仅展现了技术的力量,也凸显了中国在这一领域的追求与进步。伴随着技术的不断进化,中国正在进化 AI 这一领域的地位和影响力也将不断提高。


在数据方面存在差距


在人工智能(AI)在该领域,数据的数量和质量对模型训练尤为重要。然而,中西方在这两个方面存在显著差距。这种差距不仅影响 AI 模型性能,也对中西方在世界范围内 AI 这场比赛的地位产生了深远的影响。


信息量差距


先看信息量。大数据时代,信息量的巨大是 AI 成功模型的基础。欧美国家,特别是美国,拥有庞大的数据库。比如,OpenAI、谷歌和 Facebook 等待技术巨头可以在全球范围内获取和处理海量数据。这些公司利用其庞大的用户群,收集各种类型的数据,每天产生的数据量从社交媒体互动、搜索记录到电子商务交易。这是训练中复杂的信息。 AI 模型提供了坚实的基础。


相比之下,虽然中国也有庞大的互联网用户基础,每天生成大量的数据,但在数据的获取和处理上仍然存在一些限制。百度、阿里巴巴、腾讯等中国科技公司也在积极收集和利用数据,但数据的流动和共享在一定程度上受到数据隐私保护和政策监管的限制。这就导致了数据获取和使用效率的差距。


数据质量差距


除信息量外,数据质量也是决定性的。 AI 模型性能的重要因素。在数据质量方面,欧美国家具有明显的优势。这些都是由于其先进的数据处理系统和严格的数据质量控制标准。以 OpenAI 举例来说,该公司在数据采集和处理过程中,采用了严格的选择和清洗机制,确保用于培训。 AI 高质量、高可靠性的模型数据。这是一些高质量的数据。 AI 该模型能更准确地理解和生成自然语言,提高模型的综合性能。


虽然中国的数据质量也在不断提高,但是与欧美国家相比还是有差距的。数据处理与数据清洗技术相对滞后,导致部分数据质量不尽如人意。例如,在中文词库的建设中,虽然百度、阿里巴巴等公司投入了大量资源,但仍需进一步提高数据的规范性和规范性。另外,数据标记的准确性和一致性也是一个值得关注的问题。高质量的数据标记就是训练 AI 模型的重要基础,但在实际操作中,由于人工成本和技术水平的限制,数据标注的质量可能会参差不齐,从而影响 AI 模型训练效果。


阻碍数据获取和互通的障碍


中国和西方在数据获取和共享方面也面临着不同的考验。在西方,尤其是美国,数据获取和共享机制相对成熟。通过开放平台和合作项目,科技公司和研究机构共享数据资源,促进了 AI 技术的发展。例如,OpenAI 通过开放一些数据,与谷歌等企业进行了学术研究和技术创新。


但是,在中国,数据的获取和共享受到了更加严格的监管。国家高度重视数据隐私和安全,在一定程度上限制了数据的流动性。它在一定程度上影响了数据的广泛应用和 AI 优化模型。例如,虽然阿里巴巴、腾讯等企业拥有庞大的数据,但由于政策和隐私保护的限制,这些信息在跨部门、跨行业的流动性和共享上仍然存在障碍。这一数据获取与共享的差距,影响了 AI 技术的整体发展速度和能力。


总体而言,虽然中西方在 AI 培训的数据量与数据质量存在差距,但中国有望在未来几年缩小这一差距,因为它庞大的数据和不断提高的技术水平。通过不断的努力和改进,中国正在 AI 该领域的竞争力和影响力将不断提高,推动全球 AI 技术的发展与应用。


底层硬件用于数据训练,


尤其是英伟达的出口限制,西方具有明显的优势


西方在数据训练底层硬件方面的优势


在人工智能(AI)在该领域,底层硬件对于数据训练的性能和效率尤为重要。在欧美国家,特别是美国, AI 在硬件研发和制造方面具有显著的优势,尤其在图形控制部件方面。(GPU)和专用 AI 加速器方面。NVIDIA(英伟达)是世界领先的 GPU 制造商,他们的产品在 AI 在数据训练中起着核心作用。然而,最近的出口限制进一步凸显了西方在这一领域的主导地位和全球 AI 发展的影响。


英伟达的领导地位


成立于英伟达公司 1993 2008年,总部位于美国加利福尼亚州,是世界上最大的。 GPU 制造商之一。它的产品广泛应用于计算机图形、游戏和 AI 等待领域。英伟达 GPU 尤其适合深度学习和高性能计算(HPC),变成 AI 硬件是数据训练的首选。


1. GPUAI训练中的作用


在 AI 在训练过程中,需要强大的计算能力来处理大量数据并实施复杂的计算任务。传统的中央处理器(CPU)并行计算任务处理后效率较低, GPU 然后凭借其高度并行的结构,可以同时处理成千上万的计算任务,从而显著提高数据处理速度和模型训练效率。


例如,英伟达 A100 GPU 专为 AI 和 HPC 具有极高计算能力和内存带宽的设计,可以加快深度学习模型的实践和推理过程。A100 GPU 浮点计算能力达到每秒数百太瓦。(TFLOPS),为 AI 研究与开发提供了强有力的支持。


2. CUDA 平台的优势


英伟达除硬件外,还开发了硬件 CUDA(Compute Unified Device Architecture)平台,这是一个并行计算平台和编程模型,使开发者能够使用它。 GPU 强大的计算能力。CUDA 平台为 AI 研究者提供了支持深度学习框架的完整工具库。 TensorFlow、PyTorch 等等,大大简化了 AI 开发和优化模型的过程。


3. 出口限制在西方


近几年,美国国家是对的 AI 在硬件出口方面,特别是对中国实施了更严格的限制措施。这类限制措施主要包括高性能 GPU 和 AI 加速器,旨在遏制中国在高科技领域的快速发展。


出口限制背景


美国对 AI 硬件出口限制始于此 2018 2008年,主要用于军事和高性能计算的高端芯片和设备。2020 2008年,美国进一步加强了对英伟达和 AMD 严禁向一些中国企业和研究机构出口高性能公司的出口管制 GPU。为了保护美国的技术优势,防止技术流失和军事用途,这些限制措施。


出口限制的影响


对于中国来说,这些出口限制 AI 研发产生了显著影响。因为无法获得最新的高性能。 GPU,中国的 AI 在数据培训和模型优化方面,研究机构和科技公司面临着巨大的挑战。虽然中国也在努力开发自己的 AI 加速器和 GPU,但是,英伟达在性能和成熟度上仍然存在一定的差距。


出口限制不仅限制了硬件的供应,而且对整个硬件也有限制 AI 生态系统产生了深远的影响。例如,许多深度学习框架和工具链高度依赖 CUDA 这使得平台无法获得英伟达 GPU 一些研究人员在使用这些工具时遇到了困难。另外,硬件性能的不足也会导致 AI 模型训练时间延长,开发效率降低,从而影响模型训练。 AI 技术创新与应用。


中国的应对策略


中国正采取多种措施来应对这些挑战,促进自主开发和技术创新,面对西方在底层硬件方面的优势和出口限制。


1.自主开发GPUAI加速器


华为、寒武纪、比特大陆等中国科技公司正在加紧自主研发。 GPU 和 AI 加速器。华为 Ascend 系列 AI 寒武纪处理器和处理器 MLU 系列 AI 在性能方面,芯片逐渐接近国际领先水平。比如,华为 Ascend 910 AI 在浮点运算能力上,Cpu达到每秒 256 接近英伟达的太瓦 A100 的性能。


这类自主研发硬件不仅可以减少对进口的依赖,而且可以促进中国 AI 技术的发展和应用。然而,自主开发硬件需要长期的技术积累和不断的创新,因此在短时间内完全取代进口高性能。 GPU 仍然面临挑战。


2. 建立自主生态系统


除硬件研发外,中国仍在积极建设自主性 AI 生态系统。开源深度学习框架 Paddle Paddle(飞桨)和 MindSpore 逐渐获得市场认可。这些框架旨在取代高度依赖。 CUDA 平台的 TensorFlow 和 PyTorch,为中国的 AI 研究人员提供了更多的选择和支持。


与此同时,中国政府还鼓励国内企业和研究机构通过政策支持和资金投入进行 AI 基础研究与应用开发。例如,支持国家重大科技项目和地方政府专项资金 AI 研究和开发芯片、算法和应用,促进 AI 完善和优化产业链。


AI应用生态系统


OpenAI 一个名字已经推出 GPT Store 应用商店,这个创新平台允许开发者和客户建立、共享和销售。 GPT 模型定制化 AI 应用。目前,GPT Store 已正式上线,且拥有超过 300 一万个定制版本 ChatGPT 应用程序,这些用途涵盖多个类别,例如 DALL · E、写作,研究,编程,教育,生活习惯等等。


GPT Store 的主要特征


1. 应用类别多样化


GPT Store 满足用户在不同领域的需求,提供丰富多样的应用类别:


-DALL · E:运用 GPT 模型生成图像和艺术作品,为用户提供创意设计和视觉艺术的支持。


- 写作:帮助用户创作内容,从小说写作到商业文案,都可以找到合适的工具。


- 研究:为学术研究和市场分析提供强大的数据分析和文献综述功能。


- 编程:为开发者提供编程助手,帮助生成、调整和优化代码。


- 教育:提供支持个性化学习和教学的教育资源和学习工具。


- 生活习惯:包括日常生活的各个方面,如健康、旅游、购物等,为用户提供智能生活建议。


2. 用户和开发者的互动平台


3. 每周推出新应用


为保持平台的活力和创新,GPT Store 每周都有新的特色计划推出。 GPTs 应用程序。这些新应用程序将涵盖更多的情况和需求,以确保用户始终能够体验到最新的应用程序。 AI 科技成果。


4. 收益分项目


为激发开发者的想象力和主动性,GPT Store 未来还计划推出面向 GPT 开发者的收入分为项目。通过这个项目,开发者可以通过他们在平台上发布的应用程序获得收入,从而促进更多高质量内容的产生和共享。


GPT Store AI 影响生态系统


1. 推动 AI 技术的普及


GPT Store 这次推出大大减少了 AI 使用技术的门槛,促使普通用户也能轻松接触和使用先进的门槛。 AI 应用程序。它不仅促进了 AI 技术的普及,也促进了技术的普及 AI 发展各行各业和应用领域。


2. 刺激创新与创业


提供一个开放的R&D和共享平台,GPT Store 它激发了开发者的创新灵感和创业热情。开发者可以在平台上展示自己的创造力和技术成果,甚至可以通过分享收入来获得经济回报。这种机制不仅有助于个人开发者的发展,也促进了整个 AI 生态系统的蓬勃发展。


3. 使用场景丰富


GPT Store 从行业领域到日常生活的各个方面都有各种各样的应用。这一多样化的使用场景,不仅展现了 GPT 强大的模型能力,也为用户提供了更加多样化的选择和更好的服务。


4. 展望未来


随着 GPT Store 未来的不断发展与完善 AI 应用程序将更加丰富和智能。通过与用户和开发者的共同努力,GPT Store 有望成为世界上最大的 AI 推广应用平台之一 AI 技术的不断发展和广泛应用。


在全球 AI 竞赛中,GPT Store 毫无疑问,它的推出是 OpenAI 这是一项重要的战略措施。建立一个开放、互动、多元化的平台,OpenAI 不但提高了自己的技术优势, AI 产业发展注入了新的活力。未来,随着技术的不断发展和市场的不断扩大,GPT Store 将在全球 AI 推动市场发挥越来越重要的作用, AI 技术给人类社会带来了更多的福利和创新。


国内AI生态建设


百度正在建立自己的 AI 生态体系。例如,百度的「灵境矩阵」平台升级成「文心大模型智能体平台」。基于文心大模型,该平台为开发者提供多样化的开发模式,支持开发者根据自己的行业和应用领域选择多样化的开发模式,在大模型时代打造原生应用。另外,百度还计划推出。「千帆 AI 原生应用开发操作台」,这样可以帮助开发者减少 AI R&D原生应用的门槛,加快企业 AI 原始应用的落地。


华为:华为在 AI 该领域具有深入的布局,致力于建设开放。 AI 生态学。华为开源 AI 软硬件根技术,与产业链合作伙伴共同构建了包括盘古、鲲鹏、升腾、华为云在内的 AI 生态基础。


腾讯:腾讯使用它 AI 与腾讯连接的开放平台 AI 依托腾讯云云的能力和产业 AI 推进新的基础设施布局 AI 进步的技术和应用。


阿里巴巴:阿里巴巴利用其云计算平台阿里巴巴云与达摩院联动,提供100多个场景的视觉。 AI 开放性,以及语音、机器翻译、决策、业务增长引擎等。 AI 开放服务。


科大讯飞:作为智能语音技术的领先提供商,科大讯飞推出了世界上第一个开放的智能交互技术服务平台——讯飞开放平台,旨在为开发者和公司提供一站式智能人机交互解决方案


04


中西方AI生态的对比


GPTs 是由 OpenAI 一个推出的用户可以 ChatGPT 对社区进行深度定制和转发的功能,大大降低了开发者的进入门槛,促使没有编程能力的用户在几分钟内创建自定义。 AI 助手。GPTs 创建和使用受到影响 GPT Plus 帐户限制,并且 GPT Store 类似于市场上的排名网站。


国内 AI 生态学也在快速发展,有很多公司和研究机构都在开发自己的大型预训练模式,比如百度。 ERNIE、华为盘古,字节跳动,达摩院模型等。国内 AI 公司正在追求国际水平,但是存在着一些差距和挑战:


l 技术代差:ChatGPT 大规模预训练模型背后 GPT-4 能力强,领先国内大模型。如果你想在中国追逐和生产类别 ChatGPT 商品,需要有能够与国际相媲美的高性能底座模型,并且在底座模型上进行优化。


l 计算能力和资金投入:国内面临高档 GPU 计算率“卡脖子”问题,需要长期持续的资金投入研发和技术创新。


l 控制与安全问题:GPTs 内容审核、数据安全等开放平台可能面临监管和安全方面的挑战。


l 生态建设:GPTs 生态学建设比较成熟,有大量的开发者和用户参与。国内 AI 虽然生态学发展迅速,但是在生态学建设、社区参与和应用创新方面还有提升的空间。


l 应用领域与创新:GPTs 应用场景广泛,涵盖了生产工具、图像生成、写作、编程等诸多领域。国内 AI 可能需要进一步扩展和深化生态应用场景的广度和深度。


l 商业模式和流动性:GPTs 通过 GPT Store 等待方式提供了变现方式,而国内 AI 在商业模式创新和流动性方面,生态学可能仍处于探索阶段。


结论


全球 AI 竞争已经成为中西国家科技竞争的核心领域之一。中西方在技术研发、数据资料等方面各有优势,但也存在明显差距。


要追上 ChatGPT-4 国内大型模型在技术研发、数据、计算能力、人才储备、应用领域、政策支持等方面都要全面提升和突破。这不仅是一个技术问题,也是一个系统工程,涉及到各种综合考虑和协同推进。


基于目前的技术发展现状和未来预期,尽管国内大型模型声称已与 GPT-4 持平,可以实际上,追求, ChatGPT-4 也许至少需要 3 2000年左右。在这个过程中,政府、公司、大学和科研机构需要共同努力,全面提升技术能力、资源整合、人才储备和产业生态。


通过加强技术研发和创新,提高数据和计算能力,拓展应用场景和市场需求,完善政策支持和产业生态,预计未来几年国内大模型将完成。 ChatGPT-4 追逐,推动 AI 随着技术的不断发展和广泛应用,给经济社会的发展带来了更多的好处和进步。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com