开源AI普及下的软件风险:漏洞翻倍与供应链安全新挑战
本文来自微信公众号:数字经济发展评论,作者:数字经济发展评论
随着人工智能辅助编程的普及和开源软件依赖度的持续攀升,软件供应链安全风险与监管压力正不断加剧。
本文指出,AI辅助开发的广泛应用导致开源软件漏洞数量显著增长,软件安全风险结构发生结构性变化。文章同时关注代码库规模扩大、依赖关系复杂化以及AI生成代码带来的许可与知识产权风险,并强调企业需提升软件组件可见性,建立自动化安全治理机制与来源追溯体系,以应对日益累积的软件供应链风险。
原文标题:Open-Source Vulnerabilities Double as AI Coding Grows
原文来源:电子商务网
原文编译:数字经济发展评论
根据黑鸭软件(Black Duck)周三发布的年度《开源软件与风险分析报告》(Open Source Software and Risk Analysis,OSSRA),过去一年中,每个代码库的开源漏洞平均数量翻了一番。
AI开发推动开源软件风险激增
该报告已连续十年对开源软件发展状况进行年度评估。最新报告显示,平均每个开源应用程序包含581个漏洞。
报告指出,当前软件风险格局正处于关键转折点。随着AI辅助开发的迅速普及,软件风险的结构性特征已发生变化,企业在遵守新一轮监管要求方面也面临新挑战,包括《欧盟网络韧性法案》(Cyber Resilience Act,CRA)和《数字运营韧性法案》(Digital Operational Resilience Act,DORA)等监管框架。
现实攻击事件进一步凸显问题的紧迫性。黑鸭软件2025年企业调查显示,65%的受访组织过去一年遭遇过软件供应链攻击,意味着软件供应链威胁已成为各行业企业的现实风险。
▲OpenClaw在国内爆红
报告认为,当前开源软件生态的变化很大程度上与AI技术应用相关。传统应用安全体系建立在“人类以人类速度编写代码”的环境中,如今AI生成代码规模前所未有,大量开源组件被快速引入开发流程,应用安全团队难以跟上开发速度。
报告还指出,AI编码助手已成为开发者工具链中的基础工具,如编译器或调试器。调查显示,57%的组织已在使用AI编码助手;即便76%的公司明确禁止,这些工具仍被广泛使用。
AI推动系统性变化
以色列特拉维夫人工智能生命周期安全公司Noma Security首席信息安全官戴安娜·凯利(Diana Kelley)表示,今年OSSRA报告最重要的结论是AI改变了软件风险的规模和速度。每个代码库漏洞数量一年内翻倍表明软件风险正在发生系统性转变,AI辅助开发以前所未有的速度推动代码生成、依赖关系扩张及模型集成,传统安全和治理机制难以跟上。
她同时指出,可见性已成为安全团队不可妥协的基础能力,企业必须清楚了解软件包含的组件,包括开源组件、传递依赖关系及嵌入的AI模型。
美国特拉华州纽瓦克威胁情报公司SOCRadar首席信息安全官恩萨尔·谢克尔(Ensar Seker)也认为,尽管开源软件几乎构成所有企业应用的基础,但多数组织仍将其视为被动依赖,而非需负责的代码资产。
他强调,企业无法外包责任,只要组件存在于技术栈中,相关风险就需由企业自身承担。因此,降低漏洞数量的关键在于提升可见性并建立明确的责任归属。
规模化问题
美国纽约云基础设施安全公司Gomboc创始人兼首席执行官伊恩·阿米特(Ian Amit)指出,报告显示每个代码库平均漏洞数量从280个增至581个,同时每个应用程序包含的组件数量增长30%,表明问题不仅是漏洞数量增加,更是规模问题。
他认为,行业在发现漏洞方面已取得进展,但大规模修复能力仍不足。要减少漏洞数量,企业需从单纯生成安全警报转向自动化修复机制,并确保修复过程与安全策略一致。安全团队需具备上下文信息、漏洞可利用性情报及系统性消除代码风险类别的能力,而非仅报告问题。若无法实现这一转变,漏洞数量仍将持续累积。
美国加利福尼亚州圣克拉拉网络与安全公司Acalvio首席执行官拉姆·瓦拉达拉扬(Ram Varadarajan)也认为,尽管行业广泛意识到AI带来的安全风险,但每个应用漏洞数量仍在一年内翻倍,表明AI生成代码的速度不仅超出人工审核能力,也正在压垮传统的DevSecOps安全控制体系。
他指出,以人类速度应对机器速度的风险已不可行,未来网络安全体系需建立在零信任架构基础上,依赖实时AI驱动的安全能力,如诱捕机制、欺骗技术及博弈论策略,传统网络安全模式已难以适应新环境。
不过,美国加利福尼亚州福斯特城云安全公司Qualys工程副总裁绍米特拉·达斯(Saumitra Das)则指出,每个应用平均581个漏洞的数字虽惊人,但很大程度上是多层传递依赖关系扩张导致的。
他认为,107%的同比增长更多反映复杂性叠加,而非开发者疏忽。近年来流行的“氛围式编程”(vibe coding)倾向于快速从各类库中引入功能组件,也扩大了代码规模和攻击面。
他进一步指出,更大的问题仍是可见性。多数组织并不清楚生产环境中运行的组件,AI正在加剧这种不透明性。数据显示,仅24%的组织会对AI生成代码进行全面审查,这些代码往往引入来源不明的组件,带来潜在许可风险。
代码库规模激增
黑鸭软件的报告还发现,开源代码库规模和依赖关系数量正在快速增长。数据显示,每个应用程序中的组件数量同比增长30%,每个代码库中的文件数量增长74%,这对应用安全产生重要影响。
美国华盛顿州雷德蒙德人工智能云安全公司Averlon首席执行官苏尼尔·戈图穆卡拉(Sunil Gottumukkala)表示,氛围式编程和AI辅助开发显著加快了代码生成速度。
这些模型通常基于大量开源代码训练,开发过程中会自动调用所需开源库实现功能目标,其优化目标主要是生成可运行代码,而非审计依赖关系结构。

他指出,这意味着代码库规模以前所未有的速度增长,但安全监督能力并未同步提升。每新增一个依赖项都可能成为新的攻击面,当AI以极高速度引入这些依赖时,风险会迅速累积。
黑鸭软件软件供应链风险战略负责人蒂姆·麦基(Tim Mackey)认为,代码库规模和依赖关系增长呈现“问题随规模扩大而增加”的典型现象。
代码越多,需要测试的代码就越多;依赖关系越复杂,第三方决策对系统稳定性的影响也越大。由于每段代码都可能包含漏洞或过时的安全实践,代码来源越多,企业管理产品攻击面的难度就越大。
法律与许可风险
报告还指出,AI正在带来新的法律与许可风险。数据显示,68%的被审计代码库存在开源许可冲突,这是OSSRA报告历史上的最高比例。AI生成代码正在加剧知识产权和许可方面的不确定性。目前仅54%的组织会对AI生成代码进行许可风险审查,仅有24%的组织会开展涵盖知识产权、安全性和代码质量的综合评估。
《人工智能身份:治理下一代自主行为体》(AI Identities:Governing the Next Generation of Autonomous Actors)一书作者罗萨里奥·马斯特罗贾科莫(Rosario Mastrogiacomo)指出,AI辅助开发正在引入新的代码来源不确定性。
开发者使用AI生成代码时,往往无法完全确认这些代码是否与某些开源组件高度相似,而这些组件可能带有特定的许可义务。这种情况在受监管行业或商业软件发行领域尤其可能带来知识产权风险和合规风险。
他认为,为降低这种风险,企业应将AI生成代码视为来源不明的第三方代码,对其进行与外部依赖相同的许可扫描、安全测试和策略检查。同时,建立清晰的治理机制也十分重要,例如规定可使用的AI工具、建立强制审查流程以及记录AI工具的使用方式,这些措施有助于减少不确定性。
他还指出,透明度和可追溯性至关重要。如果企业能够证明其在评估AI生成代码方面已履行必要的尽职调查,就能显著降低后续法律和合规风险。
来源追溯成为关键防线
马斯特罗贾科莫进一步指出,黑鸭软件报告最重要的启示在于,软件风险正在从单一应用层面转变为供应链层面的问题。开源软件使用、依赖关系扩张以及AI辅助开发正在同时加速发展。未来能够更有效管理风险的组织,将是那些从被动修补漏洞转向主动提升可见性和运营纪律的企业。
他认为,随着开发速度持续提升,企业需要建立持续的软件资产清单、自动化控制机制,并在高管层面明确软件供应链风险的责任。
不过,美国德克萨斯州奥斯汀软件供应链安全公司NetRise市场副总裁加里·施瓦茨(Gary Schwartz)指出,该报告忽略了另一个重要风险因素,即恶意行为者在开源生态中的活动。他认为,随着开源依赖数量大幅增加,攻击者更容易将恶意代码隐藏在多层依赖关系中。
为应对这一问题,他建议在追溯开源依赖来源时,不仅要关注地理位置,还应分析贡献者数量、贡献频率以及维护者历史等特征。这些信息能够帮助识别潜在的恶意行为者,同时也有助于在攻击发生时快速判断受影响的依赖范围。
他指出,报告中提到的一些攻击事件,特别是与拉撒路组织(Lazarus Group)有关的活动,如果能够提前分析开源库贡献者的来源信息,其实是有机会被提前发现的。因此,依赖来源追溯已成为当前软件供应链安全中一个可以立即着手解决的重要风险点。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



