OpenAI正在爆发一场全球AI安全热战,我们将如何应对?
近期 AI 一件重磅事件发生在该领域,引起了广泛关注。
北京时间 6 月 20 日,OpenAI 前首席科学家伊利亚创始人(Ilya Sutskever)宣布将在社交平台上创办一家“安全超级智能企业”(Safe Superintelligence Inc.,简称 SSI)。
" SSI 这是我们的使命,我们的名字,我们的整个产品路线图,因为这是我们唯一的焦点。我们的团队、投资者和商业模式都是实现的。 SSI 为目标。“伊利亚,科技企业家和投资者 Daniel Gross、OpenAI 前科学家 Daniel Levy “构建安全的超级智能,是我们这个时代最重要的技术问题,”该公司网站发布的联合签名文章称。在保证我们的安全始终处于领先地位的同时,我们计划尽早提高自己的能力。"
伊利亚透露,该公司已经启动了世界上第一个直接安全的超级智能实验室,只有一个目标和一个产品:一个安全的超级智能。但是现在,SSI 公司股东、科研团队和盈利模式尚未公布。
事实上,伊利亚离开 OpenAI,很大程度上是因为与与与与与与 OpenAI CEO 奥尔特曼(Sam Altman)对于核心管理层来说存在分歧,尤其是如何控制得很好。 AI、AGI在安全发展等问题上(通用人工智能)存在相反的观点。
奥尔特曼和在其中 OpenAI 总裁 Greg Brockman 为了获得更多的资金来支持加快商业化, AI 模型计算能力需求,力求快速增强 AI 力量;而伊利亚等人则希望 AI 更安全。
去年 11 月亮,双方矛盾激化,OpenAI 结果奥尔特曼和奥尔特曼上演了“宫斗”大戏 Greg Brockman 短暂离职后再回归 OpenAI,许多原股东大会的董事离开了,而伊利亚今年正在进行。 5 月亮宣布离职。
对此,国内 AI 瑞莱智慧安全公司(RealAI)CEO 田天钛媒体 AGI 等等,奥尔特曼和伊利亚的分歧在于对奥尔特曼和伊利亚的分歧 AI 伊利亚的新公司是为了安全的“路线之争”。 AI 设定安全目标。
田天指出,伊利亚和图灵获得者包括 Geoffrey Hinton 等人觉得,AI 现在安全问题已经到了“非常迫切”的程度。如果你现在不做,你很可能会错过这个机会。以后想弥补就没有概率了。
"大型模型领域也是如此。虽然我们对大模型有很高的期望,认为它可以应用于许多领域,但事实上,在严肃的场景中,真正应用大模型的经典案例仍然很少。主要问题是 AI 安全上。如果不处理安全可控的问题,对于一些严肃的情况,谁也不敢相信。 AI,没人敢用它(AI)。处理安全、可靠的问题只能说,AI 只有落地和应用才有可能。“田天说,如果一些商业公司对安全问题不够重视,没有任何界限快速前进,可能会造成一系列的安全危害,甚至可能对整个人类造成一些安全隐患和影响。
聊天机器人很早 ChatGPT 伊利亚在发布前就提到了。 AGI 对于人类社会可能的威胁。他把 AGI 与人类的关系相比,与人类和动物的关系相比,“人类喜欢许多动物,但当人类想要建造一条高速公路时,他们不会向动物寻求建议,因为高速公路对人们来说非常重要。通用人工智能与通用人工智能的关系也将如此,通用人工智能完全按照自己的意愿行事。"
AGI,也就是说,人工智能已经具备了与人类相同甚至超越人类的智能。简单来说就是能说会写,有计算、推理、分析、预测、实现目标等各种人类行为。这样的 AI 曾遥远,但现在 OpenAI 推出第四代模型 GPT-4 并且正在训练第五代模型 GPT-5 时,AGI 看起来就在眼前。
今年以来,AI 安全问题不断引起关注。
今年 1 月亮,一位受欢迎的美国歌手被使用。 AI 恶意生成虚假照片,在社交媒体上迅速传播,给歌星本人带来麻烦;2 月份,香港一家公司遭受" AI “换脸”诈骗,损失高达 2 据报道,该公司的一名员工在视频会议上被首席财务官要求转账。不过,大会上的这位“领导”和其他员工,其实都是深度伪造的。 AI 影像。诈骗者通过公开渠道获得的信息,合成了首席财务官的形象和声音,并制作了多人参加视频会议的虚假场景。
总的来说,为了实现 AGI 目标,目前,AI 在设计上,系统主要面临五大安全挑战:
软件和硬件的安全性:在软件和硬件方面,可能存在漏洞或侧门,包括应用程序、模型、平台和芯片。攻击者可以利用这些漏洞或侧门进行高级攻击。在 AI 从模型的角度来看,攻击者也可以在模型中植入侧门并进行高级攻击;因为 AI 模型无法解释,模型中植入的恶意侧门难以检测。
数据完整性:在数据方面,攻击者可在实践阶段添加恶意数据,影响数据。 AI 模型推理能力;攻击者还可以在判断阶段给要判断的样本添加少量噪声,故意改变判断结果。
模型保密:在模型参数方面,服务提供商通常只希望提供模型查询服务,而不是暴露培训模型;然而,通过多次查询,攻击者可以构建类似的模型,从而获得模型的相关信息。
模型鲁棒性:训练模型时的样品通常覆盖面不足,导致模型鲁棒性不强;当模型面对恶意样本时,无法给出正确的判断结果。
资料隐私:在客户提供培训资料的情况下,攻击者可以通过反复查询培训模型来获取用户的隐私资料。
张宏江在北京智源人工智能研究院学术顾问委员会主任 2024 北京智源大会表示,过去一年,大模型发展迅速,行业讨论了实现通用人工智能的路径和曙光,但 AI 安全问题的严重性和紧迫性不容忽视。
“当我们处于不同的水平 AI 能够审视安全问题,不仅要了解社会偏见、错误信息、隐性工作替代或大模型、自主机器人带来的大规模自动化造成的工作流失,还要关注隐性加速财富集中或财富两极分化等问题。 AI 新的经济体系和包含隐性破坏性风险或误用事故,甚至可能导致人类延展性风险。AI 有许多安全声明和请愿,但更重要的是明确目标,投入资源,付诸行动,共同应对风险。”张宏江说。
北京智源人工智能研究所董事长黄铁军表示,水深流急,AI 安全性已经进入风险非常突出的时期。应对 AI 安全性隐患,必须正确 AGI 水平和能力分为五个层次,而且,人类应该致力于解决问题。 AI 加强国际社会和国际社会的安全问题 AI 保证安全领域的合作, AI 技术可控,迎接安全 AGI 的来临。
AGI 五个等级的水平和能力
生成式 AI 技术是一把双刃剑,如何将生成式? AI 强大的能力用来建立信息安全规范,把制约行业发展的“拦路虎”变成“压舱石”?业界一直在探索“技术治理技术”的解决方案。
就在 6 月 21 日本,瑞莱智慧推出了世界上第一个实时监控。 AI 产生内容产品 RealBelieve,中文名“尊嘟假嘟”。
据报道,以前是国内外的 AIGC 检验产品被动上传检验不同,RealBelieve 主要面向终端用户,可以提供主动实时监控和保护,可以访问视频流来识别人脸的真伪,也可以在用户浏览网页内容时提供。 AIGC 产生概率提醒。不仅可以为终端用户提供各种模式的文本、照片、视频和音频的文件上传测试服务,还可以通过浏览器插件即时提示用户浏览网页的疑似 AI 产生内容,变被动为主动。现在,尊嘟假嘟 RealBelieve 内测征募已经开始。
田天说,作为我国为数不多的专攻专业 AI 在安全领域,瑞莱智慧在政务、金融等领域服务了100多名客户。伴随着 AI 技术的发展,整体安全 AI 发展的优先事项一直在前进。未来 AI 技术要向超级智能方向发展,必须建立整个安全系统,以确保超级智能技术的形成。
”“假如现在没有做好 AI 如果安全的话,也许我们以后就没有机会了。”田天说。
(本文首发于钛媒体 App,作者|编辑林志佳|胡润峰)
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com