AI是反思能力 Agent 智能化的关键

2024-07-03

Snowflake峰会开发者2024年日活动,“如何通过Al智能体工作流推动比下一代基础模型更多的Al进步”,吴恩达教授发表了题为《(How Al Agentic workflows could drive more Al progress than even the next generation of foundation 分享models,使用Agentic AI再一次推向公众,并指出Agentic AI的发展方向可能比下一代基础模型更具潜力。


在此之前,OpenAI还在一本白皮书《智能体式人工智能系统的治理实践》中(Practices for Governing Agentic AI Systems)在Agentic中提到过 AI。


OpenAI白皮书


这正是澜码一直倡导的。因为在我看来,Agent应该根据智能化程度来划分,就像自动驾驶技术被业界从L0到L5分类来衡量它的自动化程度一样。而“Agentic AI 能更好地表达Agent的智能性和智能性。「灰度」——随着大模型或行业的发展,Agent可以变得越来越复杂,它将变得更加智能。


正如吴恩达教授在文章中所说:“将系统视为一定程度的Agent特征,而不是以二元的方式选择一个系统是否为Agent更有用。”


另外,我觉得对Agentic来说 AI 总之,最重要的是要有反思能力,能够探索环境,理解目标,这样才能做到适应环境,独立实现目标,这样就成了一种新的生产力,进一步提高了全要素的生产率。


为什么Agentic? AI AI发展方向更具潜力。


Agentic AI,即智能体式AI,是指通过理解目标、导航复杂环境、在最小人工控制下执行任务的系统,通过自然语言输入,可以独立主动地完成端到端任务的设计。通常,它被设计成更加独立和适应性,不仅可以处理数据,还可以做出决定,从互动中学习,并采取积极的步骤来实现复杂的目标。


Agentic AI使用大型语言模型 (LLM)、随着可扩展的计算能力和庞大的数据集的不断发展,提供了更加动态和灵活的方法。它结合了强化学习。(RL)与决策理论相比,可随时间从互动中学习和优化,不仅可以对情况做出反应,而且可以积极参与决策过程。


换言之,名词“Agent"只是用来解释一个产品或项目是否为AI。 Agent、修饰词是否具有智能特征,“Agentic"这意味着AI产品或项目的Agentic特征水平,也就是它们能否体现出更强的主动性、自治性和适应性。前者仍在讨论Agent产品或项目的相关特征,后者则在讨论商品的智能水平。显然,后者更有意义。


从AI Agent到达Agentic AI system,即使目前讨论的内容仍然是AI。 与Agent相关的技术、产品或解决方案,但是立足点已经大不相同了,我认为这是一个重大的认知转变。假如说AI Agent仍然属于产品思维,Agentic AISystem已上升到战略思维


Agentic AI进一步代表了AI技术、商品、方案、生态甚至战略的整体集合,必然会被更多的组织像GenAI这样的词汇放入其战略报告中。


就定义和概念而言,AI Agent是一个智能实体,可以感知环境,做出决定,执行动作。它们通常基于机器学习和人工智能技术,具有自主性和自适应性,可以在特定的任务或领域独立学习和优化。它的主要功能可以概括为三个循环:感知、规划和行动。


Agentic AI是一种自主性较高的AI系统,它能积极地思考、规划和执行任务,而不仅仅依赖于预设的指令,它注重的是系统能够在一定程度上具有“可动性”(Agentic特性),而不仅仅是被动执行指令。


吴恩达教授总结介绍了四种常见的设计模式,即反馈。(Reflection)、工具使用(Tool Use)、规划(Planning)与多智能体合作(Multi-agent Collaboration)。


还有Lilian之前 以Plang提到的Weng Tool Use Short/Long Term 像Memory这样设计的Agent似乎只能通过机器能够理解的方式教会Agent环境和目标,这样Agent就可以用记忆和工具来规划和实现目标。


如何构建Agentic?从人类智商的发展推演中? AI


在白皮书中,OpenAI将Agentic AI systems概念化「追求人类定义的目标,并在人类确定的环境中运行(并经常与人类“队友”合作),而不是完全独立设定自己目标的系统。」。


那Agentic如何构建和发展呢? AI Systems?


我觉得,通过观察和理解动物和人类在物理世界中是如何发展智商的,以及如何与周围环境互动,或许可以作为推广智能系统的参考。(Agentic AI Systems)应该怎样构建和发展


所以我们首先要看一下,在人类和动物的世界里,本能、习惯、智商三者的关系是什么?


蜜蜂可以回家,是因为它们的智商水平高还是因为它们的本能?植物的向光是否意味着植物的智商高?事实上,蜜蜂之所以能回家,是因为它们有天生的本能,而不是智力。虽然蜜蜂的行为看起来很复杂,但它们是由基因编程驱动的,而不是通过智商解决问题;植物的向光不是智商的体现,而是生长机制。


对于人来说,本能是一种与生俱来的行为模式,是智商行为的基础。随着人类的不断学习和实践,这些行为会逐渐固化为习惯,成为我们智力活动的一部分。本能是智商行为的原始动作,习惯是智力的固化。


举例来说,会开车算不算智商?学开车算智力,但是学开车之后就成了习惯。所以,我们可以认为习惯性是智力发展的凝结,也是智商发展的平台和基础。智力是意识层面的分析和行动,智商在“自动化”之后就成了习惯。


所以,可以说,人类智商的发展就是在不断“自动化”的过程中。——自动阅读、自动阅读、自动写作。概念转变为智商形成,形成习惯。



我想说的是,智商是一个复杂的系统,它不仅包括内在的认知和情感过程,还包括外在的行为和结构表现,智力的发展是通过不断的自我调节和适应来实现的,而本能和习惯在这一过程中起着重要作用。


相应地,在计算机世界里,“本能”可以类比为程序员根据特定设计编写的代码。一旦编写完成,就很难修改,所以更接近人的本能。智商更像是机器学习中的一个模型,它可以处理各种类型的数据,只要按照模型要求的格式输入这些信息。


另外,与动物相比,人类最显著的优势之一就是语言能力,正是通过这种语言能力,人类的智力得到了极大的发展和提高。


因此,人类的环境(比动物和植物的环境)有一个“智能世界”,或者在AI出现之前,智能世界就是我们的社会。人类通过各种本能、习惯和制度构建了各种社会法律和道德。数字世界是目前的互联网,有大量的数字物质是人类创造的。


与Agentic相对应 AI的构建,如图所示,我们认为Agentic 智能世界、数字世界和物理世界有三种完全不同的环境。




Agentic AI 需要具备反思能力


最新提到的吴恩达Agentic 在Workflow中,提到了反思能力和多Agent合作,虽然Plan和Toolol也提到了, Use,但我觉得,“反思”是一个非常重要的功能,所以Agentic AI有能力适应环境,因为环境和目标可以动态变化。


比如在公司的服务环境中,任何流程的目标和前后文字都有一个相对稳定的静态知识结构,但也会因为公司内外环境的变化而进行调整。智能化的作用是通过反思来分析和实践,其中实践更为重要


对我来说,过去企业内部专家知识的实践,实际上是大数据的处理过程,但这个过程主要依赖于专家的知识和技能,而非机器学习算法。


人的智力也主要表现在可分析和实践两个方面。在分析领域,“智力”侧重于抽象思维、逻辑判断和语言和数学的应用能力。但在实践中,“智力”包括隐性知识,我们通常称之为“常识”。


这种隐性知识在人类对话和描述问题时通常不会被明确提及,因为我们默认或假设每个人都已经掌握了它们。隐性知识往往是在日常经历中获得的,而不是在正式的教育环境中获得的,因为很难用语言清晰地表达出来,隐性知识在日常讨论中很少被触及。正是因为表达上的困难,隐性知识在解决问题中的关键作用通常被低估。


那么为什么Agentic? AI需要适应环境的能力?


智慧不仅体现在对挑战和问题的反应性处理上,也体现在对人类世界的积极探索和实践上。聪明的人在遇到困惑或问题时不会采取行动。他们积极寻找潜在的问题,探索周围的环境,从而更有效地预见和解决问题。解决问题的一种方法是改变环境。


另外,智力也体现在设定和实现目标的能力上。聪明的个人可以认识到问题的存在,准确定义问题的本质,并表达出来。他们可以识别自己的思维盲点,并努力获得这些内容,填补这些空白。聪明的人虽然受益于结构化的指令,但也有能力单独寻找和使用信息资源。


企业服务场景下,如何将自动化发展成智能化?


自动化机器决策的隐患是「不要只告诉机器要实现什么目标,还要约束机器如何实现目标」。


在决策过程中,人类往往需要在多个指标之间找到平衡。然而,机器做出的决定可能过于强调某些指标,无法达到理想的稳定状态。当我们表达自己的需求时,我们通常会优先考虑准确性,这将导致最终结果偏离每个人的真实期望。


处理这种问题的方法,就是让机器用户能够理解的方法和逻辑来决定。“人们会理解的方法和逻辑”就是我们需要赋予机器的本能。


Agent从自动化发展到智能化,在公司业务领域,这是一个应用领域的变化过程,也是一个人机关系的进化过程。


AI的目标和环境是人类员工在自动化过程中提前给出和解释的,这些参数是固定的。但是,对智能的期待是,AI可以通过分析和实践与人类员工做出决定,帮助人类员工显性知识,收集实践数据,通过反思过程实现知识的完整闭环。


在数字化、网络化公司中,释放智能潜力的前提是线索。


第一个线索是数字线索。随着数字技术的发展,我们有条件记录组织本身和系统本身的静态和动态特征,然后及时、准确、全面地描述业务对象,从而为智能化奠定基础。


第2条线索是网络化的线索,信息集成有三个线索:横向集成、纵向集成和端到端集成。销售、制造、采购的集成属于横向集成,管理与控制的集成属于纵向集成。


数字线索的作用是让计算机获得静态和动态数据,实现“知己”。网络线索的作用是获取与系统相关的外部信息,实现“了解自己”。


因此,数字化和网络化将使计算机逐渐具备“运筹帷幄”的能力,从而为计算机决策奠定基础。


许多情况下,企业内部的信息系统是为业务对象提供价值,用ID来表征,实际上是为了降低不同角色的员工在沟通过程中可能引起误解的风险。对业务对象和业务往来的这些识别也属于企业中的AI。 Agent的本能,需要我们在设计时能赋予它。


这些数字化和网络化的线索实际上是公司的数据。包括各种管理系统,以及人类交流系统中的各种数据,如邮件和IM、会议系统中的数据等。


人类可以利用的知识、信息和资源来自开放空间,其能力可以灵活应对各种开放问题。相比之下,机器获取信息、知识和资源的范围仅限于相对封闭的系统。


算法是为了特定的目标而建立的,而人类有一个可以全面处理知识的大脑,可以应对各种开放的问题,不断创新信息和知识来源的界限,甚至根据实际条件和要求不断提出或调整目标。


机器可以在决策过程中为人们提供更多的信息,为了实现人机协同的有效决策,机器需要具备一定的思维能力,能够主动发现异常情况,将相关的实践、异常、信息和知识推送给人类,从而提醒人类做出决策,甚至提供类似人类秘书和助手的可选方案。


在机器自主决策的过程中,人类需要适当干涉机器的执行。一种方法是机器在正常情况下做出决策,当遇到特殊问题时,决策权会转移给人类;另一种方法是,机器在完成决策后,必须经过人类的确认。


蓝色代码倡导的Agentic 通过与智能环境中的人类互动,AI需要能够突破过去机器决策的局限性,积极发现数字环境中新的信息来源和知识来源,从而在工程实践中得到更强大的大模型支持,Agentic AI可以形成自我学习和反思的能力,从而突破当前的瓶颈问题。


而且我们相信,在专家知识的帮助下,AI Agent可以使用更小的模型,更少的计算率来达到更好的效果。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com