英特尔大显存GPU亮相湾芯展,发力图形工作站与AI推理市场

2025-10-27

电子发烧友网报道(文 / 章鹰)英特尔中国区显卡和 AI 高级产品总监徐金平对记者表示:“在 AI 时代,企业面临的是一个充满机遇与挑战的局面。一方面,大模型规模化商用进展突飞猛进,蕴藏的机遇近在咫尺。另一方面,无论是海量图像、文本、音视频数据的处理,还是复杂精细化 AI 模型的部署等,都给传统算力架构的性能和能耗带来了挑战。”


英特尔发布了面向专业的锐炫 Pro B50 和 B60。这两款显卡与 RTX2000 和 5660Ti 相比,有哪些性能上的优势?在支持 AI 推理工作站和大模型部署上,B60 有哪些独到之处?10 月 16 日,在深圳举行的湾区半导体大会上,英特尔中国区显卡和 AI 高级产品总监徐金平带来了市场前瞻和新品优势的解读。


图 1:英特尔中国区显卡和 AI 高级产品总监徐金平


主流显卡性能优势明显:高算力 + 大显存,本地跑 DeepSeek R1


在 2025 年台北国际电脑展(Computex 2025)上,英特尔正式推出了锐炫 Pro B50 和锐炫 B60 专业显卡。徐金平指出,除了两款芯片外,英特尔还推出了 Project Battlematrix 推理工作站平台,支持最多 8 张锐炫 Pro 显卡并具备软件包支持,能运行高达 150B 参数的中等规模且精度高的 AI 模型。


B60 主打 AI 推理与大模型部署场景,徐金平指出,B60 核心性能优势主要来自三大方面。


一、大容量显存和带宽。B60 配备 24GB GDDR6 显存,显存带宽高达 456GB/s,显著优于同级别的 16GB 显存竞品,能更高效地运行大参数 AI 模型,比如 70B 参数 LIama 和 DeepSeek - R1。


二、高 AI 算力。B60 芯片的 AI 算力达到 197 TOPS(INT8),适合复杂 AI 推理任务,如大语言模型、多模态模型等。


三、多卡并联扩展能力强。支持多卡并联,最高可扩展至 8 卡,实现 192GB 显存,可运行 1500 亿参数的中等规模高精度模型。英特尔还推出 Battlematrix “战斗阵列” 解决方案,优化了软硬件协同,提升 AI 部署效率。


据英特尔介绍,针对 B60,英特尔做了一些 AI 的性能测试。在 Windows PC 上单卡的场景,测了 10 个模型,对比的产品是 RTX2000 和 5660Ti。在相对小的 14B - int4 模型上,B60 比 RTX2000 有比较明显的提升,稍微落后于 5060Ti,这与 SPEC 相符。后面的 9 个模型英特尔 B60 都是领先的。


基于服务器和显卡融合提供一揽子方案,给 AI 推理工作站赋能


当前,AI 推理工作站面临的核心挑战,是在可控成本内,把大模型跑得快、跑得稳、跑得省。主要包括显存墙、首 Token 延迟与实时业务如何系统,能耗与散热,以及软件栈碎片化。


“我们推出 Battlematrix(战斗阵列)项目,最主要的是把我们的服务器和显卡进行了整合,做各种硬件和软件的验证。”徐金平分析说,“ B60 显卡是一个 PCIe Gen5 × 8 的 SPEC,我们就利用 PCIe 可以在一个卡上做两个芯片,提供 48G 的显存。在比较典型的服务器或者是工作站做 1 机 8 卡的场景下我们可以做 1 机 16 个 B60,可以提供高达 384G 的显存,可以运行 100B 甚至是 200B 的 FP8 的大语言模型。”


为了更加贴近客户需求,英特尔不仅推出了单个显卡产品,还跟整个服务器联合验证测试,对整个 Linux 工作站、AI 推理工作站做全栈的验证,把软件作为一个容器化方案,一到两个月定期的推出一个版本给到客户,客户比较容易获得新的软件栈来部署他们的应用。


据悉,在教育行业和物流行业,有客户在用英特尔锐炫 Pro 系列的多卡方案做教育方面的部署,给学校做类似于一体机的服务。还有物流行业,甚至像智慧公园、智慧工厂,都有一些落地的案例。


值得关注的是,B60 比上一代功耗从 70W 上升到 200W,在边缘 AI 工作站中,多卡方案已经被客户重点关注。如何解决整机散热的难题?徐金平表示,这是为什么有“战斗阵列”项目的原因。 “战斗阵列”项目本质上是我们把不同的各家的服务器加上显卡,做硬件层面上的结构兼容。然后,我们还要做散热测试,比如说全都跑 200W 跑 10 分钟,那么整个服务器的散热能不能达标。第二个层面是软件层面,功耗增加必然会带来散热相关的成本增加。通过测试认证就能保障整个边缘 AI 工作站的正常运行。


英特尔锐炫 B60 凭借其 24GB 大显存、197 TOPS AI 算力、强大的多卡扩展能力和更高的性价比,成为 AI 推理工作站市场的一匹黑马。英特尔方案胜在“ x86 生态无缝 + 超大显存叠加”,适合预算有限、希望“今天到货明天上线”的中小企业。国产阵营则把“信创合规 + 稀疏 / 压缩算法硬化”做成护城河,在政务、能源、运营商招标中占优。未来谁能率先把 200 B 模型压进 100 W 单卡、并把软件栈做到“一键部署”,谁就能拿下边缘 AI 工作站的增量市场。


更多热点文章阅读


时延<1ms,工信部发布全光算力网络重磅利好政策


点击关注 星标我们


将我们设为星标,不错过每一次更新!


喜欢就奖励一个“在看”吧!


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com