与HBM不同,这种创新的堆叠式DRAM有望降低50%的功耗。
电子爱好者网报道(文章 / 近日,英特尔与软银集团宣布达成战略合作,共同开发具有划时代价值的产品。 AI 专用内存芯片。这种合作将致力于突破目前的突破 AI 计算中的能耗瓶颈有望降低芯片的功耗 50%,为世界 AI 基础设施带来了革命性的变化。
随着 AI 随着技术的不断发展,计算硬件的高性能、低功耗需求日益增加。然而,现有的 AI 内存技术存在高成本、高功耗、发热等问题,限制了内存技术 AI 进一步扩大数据中心,提高效率。据报道,软银和英特尔将开发一种创新的堆叠式 DRAM 芯片,采用全新的走线架构,与目前高带宽内存完全不同(HBM)技术规范。
这种新型 AI 什么方面可以创新内存芯片?第一,在架构层面,目前 HBM 主要采用技术 TSV(硅通孔)垂直连接技术可以实现芯片堆叠,而创新方案采用全新的布线架构,可能会打破传统 TSV 通过更优化的走线设计,可以减少数据传输路径的坎坷和干扰,从而减少信号延迟和功耗。例如,可以采用新的固层连接方式,使数据在芯片堆叠层之间的传输更加直接高效。
HBM 创新方案可以进一步优化通道数量和数据接口设计,通过宽接口和并行传输实现高带宽。例如,增加通道数量,或改进数据接口的数据传输机制,提高数据传输的效率和稳定性,在相同甚至更低的功耗下实现更高的带宽。
与芯片堆叠和封装不同, HBM 创新方案可以采用全新的芯片堆叠结构来提高堆叠密度和稳定性。例如,选择更紧密的堆叠方式来减少芯片之间的间隙,从而减少整体封装尺寸和数据传输距离。
还可以通过改进封装技术,提高芯片散热性能和电气连接的可靠性。例如,选择更有效的散热材料和封装结构,可以快速散发芯片产生的热量,避免过热导致的性能降低和功耗增加;同时,提高芯片与封装基板之间的电气连接,减少连接电阻,降低功耗。
据报道,英特尔和软银这一突破性设计不仅大大提高了能效比,而且还将为 AI 数据中心的绿色转型为核心技术提供支持。业内人士指出,如果这项技术能够成功商业化,将显著减少 AI 计算运营成本,对于促进可持续发展具有重要意义。
为了推进这一重大项目,双方联合成立了专业企业 Saimemory,负责芯片设计和专利管理。制造业环节委托专业代工完成,这种分工合作方式有望最大限度地提高研发效率。目前,R&D部门将采取不同的措施。 HBM 通过垂直堆叠多个技术走线方式 DRAM 芯片,并改进芯片之间的互联技术,实现至少两倍的存储容量,同时减少用电量。 40% 以上。
根据总体规划,R&D部门将在两年内完成芯片原型设计,然后启动量产评估程序,目标是在20世纪20年代末实现商业应用。项目总投资估计达到 100 十亿日元(约合) 5 1亿元人民币),其中软银作为领先投资者已承诺投资 30 亿日元(约 1.5 亿元)。
然而,尽管软银和英特尔在芯片设计和制造方面有着丰富的经验和技术积累,但是新的 AI 内存芯片的研发仍然面临着许多技术挑战,例如这种创新风格 DRAM 芯片良率控制,量产成本是否真的低于 HBM 等。
当然,随着 AI 随着技术的广泛应用和数据中心规模的不断扩大,对高性能、低功耗内存技术的需求将继续增加。如果是新的 AI 能顺利商业化、满足市场需求的内存芯片,将具有广阔的市场前景和商业价值。
阅读更多热门文章
加关注 星标我们
把我们设为星标,不要错过每一次更新!
喜欢就奖励一个“在看”!
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




