被马斯克炮轰 Apple 智慧,为什么更接近理想? AI 形态?

06-14 19:10

今年的苹果 WWDC,这是一场事先张扬的比赛 AI 在新闻发布会上,库克很少在几个月前的各种场合渲染气氛。


可以在上个月看到的时候 OpenAI 和 Google 、微软的发布会,又会觉得这不像是一场发布会。 AI 发布会。


苹果甚至没有正式发布一个大模型,也没有比较同行参数和多模态能力的常规阶段。 AGI 未来,也没有使出像。 Copilot 媒体对此大喊大叫「颠覆一切」爆炸应用。


相反,苹果制造了一个名字 Apple Intelligence (下称「 Apple 智能」)这个谐音梗告诉人们,苹果发布的不是软件或硬件,而是一种新的使用体验。


库克觉得 AI 必须把用户放在第一位,需要无缝地整合到你的日常体验中:


它必须了解你,并且基于你的个人背景,比如你的日常生活,你的人际关系,你的交流等等。,所有这些都超出了人工智能的范围。这是个人智能,也是苹果的下一个重要举措。


苹果选择将 AI 能力渗透到整个生态中,这意味着很难看到。 GPT-4o 那样欢呼的演示,但是这样的演示「没有惊喜」和去年 iPhone 15 发布的时候就不一样了,这是智能手机宏大叙事结束的侧写。


而 Apple 智慧,是在给予 AI 应用程序为新的叙述铺平了道路,这可能不仅仅是苹果的新篇章。


个人智力与个人隐私


在 Apple 在智能亮相的时候,苹果总结了它的五个特点:强大,易用,深度整合,个性化,个性化。


若想要 AI 结合生活细节,甚至不被发现,必须让步。 AI 你甚至比你更了解自己。这也意味着你的个人数据越多,就越有可能实现。然后你要面对的问题是:这是否应该基于个人隐私的转移?


在今天的新闻发布会之后,马斯克指责苹果。


在库克的推文下,他甚至直接表示。「要禁止所有苹果设备进入我们公司的办公场所」,并对苹果和 OpenAI 用户隐私安全保护合作后提出异议。


但这也确实是用户会担心的问题,特别是对活跃设备来说, 22 一亿苹果。但是,这也与苹果一直谨慎保护隐私的行为方式背道而驰。


以前的苹果设备和 AI 相关功能基本上是通过本地机器学习来实现的,所需的数据量很少,很大程度上是基于个人隐私的考虑。


虽然苹果在新闻发布会上没有一一介绍这些问题,但是我们也通过了会后的一些媒体交流会,了解了更多 Apple 智能化处理隐私方面的方法,可以尝试澄清当前网络上一些有争议的问题。


APPSO 据了解,苹果为涉及云端的数据处理提供了两种新的解决方案。


首先,客户不需要将所有数据、所有邮件、所有信息、所有照片和所有文档发送到他人的云中并存储在那里,以便在必要时检测服务器模型。


相反,用户的设备上的设备 Apple 智能会发现哪些小信息与回答这个问题有关。因此,向云端提出的问题只包含这些小信息,而苹果对小信息进行了保密处理。


例如,苹果创建了一个加密系统 iPhone 只能通信含有指定标签的服务器。也就是说,如果这个服务器上的软件发生任何变化,它的签名也会发生变化,但是你可以拒绝通信它。


包含和 OpenAI 合作用户数据处理也是如此,拥有注册帐户的用户 IP 使用服务时,地址将被隐藏,OpenAI 客户请求也不允许记录。


也许这样会在一定程度上回答公众的疑问,苹果确实有必要在这方面披露更多信息。强调「个性化」的 Apple 智慧,要在发布会上实现蓝图,这是一个必须处理好的问题。


并且苹果和 OpenAI 这种合作模式很可能不是专属的,未来在不同的场景、不同的地区,显然是保留了其它大型合作空间。


这个问题也不是苹果一家厂商要面对的,但是不管是谁,都要慎重选择合作伙伴,当 AI 伴随着大量的智能终端渗透到生活中,隐私与便利的对抗将会越来越激烈,即使被称为耐受性较高的中国市场。


一个没有硬件的发布会,对硬件有很大的影响。


Apple 从命名到实现方式,智能可以看出苹果应该用自己的方式来定义。 AI 硬件,将 AI 能力渗透到整个生态系统中,而非某个杀手级别的应用和功能。


这个和现在一样多 AI 从去年开始,硬件制造商就出现了硬件最大的差异。 AI 硬件趋势。其中许多是将军。 AI 简单的硬件相当于大模型。 智能化终端,其结果是通常推出的半成品,具有一定的功能,更新测试属性。


这也是 Ai Pin 和 Rabbit R1 等网红 AI 重要的原因是硬件热闹一波就折戟沉沙。


Apple 虽然苹果没有提到苹果在苹果产品中的应用方式,但智能思维与过去机器学习的应用方式相似。 AI ,但是已经融入了许多常见的小功能,比如 AirPods Pro 通过机器学习实现自适应音频的方法。


许多人说苹果在模型时代已经落后,从单一技术上来说很可能是真的,但是苹果所需要的从来都不是一个比例。 ChatGPT 更加令人敬畏的模型,而是将算率转化为整体而非局部感觉。


虽然这个发布会系统和软件是主角,但是硬件是一个没有明确表示但是非常重要的环节。APPSO 知道了,这次 Apple 智能化在端侧运行的是规模。 30 亿参数模型


据报道,苹果工程师认为这是目前最好的端侧模型,苹果对此保持低调但充满信心。


相比之下,不久前微软发布的端侧小模型 Phi-Silica 参数为 33 亿,而国内手机厂商在端边的大部分情景模型大概在端边。 70 亿 -130 十亿参数之间。


参数越高,性能越高,但如果能以较小的参数规模实现相同的性能,对于移动终端和大模型的结合来说意义更大。


而且业内很多研究已经证明,微调后的小模型性能在某些使用场景下可能不如大模型。苹果之前曝光的开源小模型 OpenELM ,就包含 2.7 亿、4.5 亿、11 亿和 30 亿参数。


尽管苹果认为顾客看重的是感觉,而不是参数规模,但是端侧模型很有可能是苹果在悄悄发力的地方。


假如顺利的话,苹果很可能会推动一波新的硬件浪潮, Vision Pro 带摄像头的人 AirPods,还有传闻中的家务机器人等等。苹果凭借其强大的设计、生产和供应链能力,可以再次使用软件来塑造硬件。


这次没有发布任何新硬件的发布会,可能是近几年对苹果硬件影响最大的一次发布会。


Siri 它将成为苹果真正的操作系统。


当苹果要把 AI 能力集成到操作系统中,Siri 成为一座重要的桥梁。


苹果公司机器学习与人工智能战略高级副总裁在今天的媒体分享会上 John Giannandrea 则表示:


Siri 它不再仅仅是一种语音助手,它实际上已经成为一种设备系统。


我们之前在 WWDC 预言文章也预言过,苹果 AI 最终的目标是实现这样的场景:早上醒来,用一句话「Siri」唤起 Siri,让它再次打开微信微信官方账号「爱范儿」,阅读最新的文章,就这样,在完全不用动手的情况下,听听爱范儿的早报。


Siri 能够变得聪明,其实就是语义理解能力的提高,能够像人一样理解所有这些数据的含义。随着时间的推移,这种理解会变得更加丰富。


自然交互语言在大模型兴起后,一直被认为将取代我们现在和设备的图形界面。 GUI,其背后是计算机对自然语言的理解能力大大提高。


基于自然语言交互的到来,不仅会影响到我们的个人设备,还会完全改变应用形式,比如 Siri 通过 API 使用特定的能力来执行各种任务,甚至 app 没有必要,或者以一种新的形式出现。


OpenAI 创始人已离职 Andrej Karpathy 他还表达了类似的观点,他认为这是 Apple 最为激动人心的地方,并列出了六个理由:


多模态 I/O:支持文本、音频、图像和视频的读写功能。这可以说是人类的原生。 API。


代理:允许所有操作系统和应用程序通过「函数调用」进行相互操作;核心过程 LLM 能根据客户查询调度与协调工作。


无缝感:这个功能完全集成在高度无缝、快速、始终在线的方式。无需复制粘贴信息或提醒项目,相应调整。 UI。


主动性:不只是按要求完成任务,而是预测提醒,提出建议并积极执行。


分配级别:在系统上尽可能多地运行智能(Apple Silicon 很适用),但也允许把工作委派到云端。


模块化:允许操作系统浏览并支持整个增长。 LLM 例如,生态系统 ChatGPT 的发布)。


隐私保护:


今天苹果 WWDC 各种各样的细节,都在隐约指向这个未来。但是苹果也知道这个概率不会在几年内实现,所以只告诉你,至少 Siri 好用多了。


在过去的几年里,我们最不缺的,其实是 AIGC 带的「Amazing」。但是就像手机和因特网一样,生活质感的技术和产品深深地嵌入其中,还没有看到线索。


润物无声,是技术创新的最终目标, AI 理想形态,这也是如此 Apple 智能化最值得期待的区域。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com