7月28日消息,Micron Technology Inc.(美光科技)今日宣布,公司已开始出样业界首款 8 层堆叠的 24GB 容量第二代 HBM3 内存,其带宽超过 1.2TB/s,引脚速率超过 9.2Gb/s,比当前市面上现有的 HBM3 解决方案性能可提升最高 50%。美光第二代 HBM3 产品与前一代产品相比,每瓦性能提高 2.5 倍,创下了关键型人工智能(AI)数据中心性能、容量和能效指标的新纪录,将助力业界缩短大型语言模型(如 GPT-4 及更高版本)的训练时间,为 AI 推理提供高效的基础设施,并降低总体拥有成本(TCO)。
美光基于业界前沿的 1β DRAM 制程节点推出高带宽内存(HBM)解决方案,将 24Gb DRAM 裸片封装进行业标准尺寸的 8 层堆叠模块中。此外,美光 12 层堆叠的 36GB 容量产品也将于 2024 年第一季度开始出样。与当前市面上其他的 8 层堆叠解决方案相比,美光 HBM3 解决方案的容量提升了 50%。美光第二代 HBM3 产品的性能功耗比和引脚速度的提升对于管理当今 AI 数据中心的极端功耗需求至关重要。美光通过技术革新实现了能效的显著提升,例如与业界其他 HBM3 解决方案相比,美光将硅通孔(TSV)数量翻倍,增加 5 倍金属密度以降低热阻,以及设计更为节能的数据通路。
美光作为 2.5D/3D 堆叠和先进封装技术领域长久以来的存储领导厂商,有幸成为台积电 3DFabric 联盟的合作伙伴成员,共同构建半导体和系统创新的未来。在第二代 HBM3 产品开发过程中,美光与台积电携手合作,为 AI 及高性能计算(HPC)设计应用中顺利引入和集成计算系统奠定了基础。台积电目前已收到美光第二代 HBM3 内存样片,正与美光密切合作进行下一步的评估和测试,助力客户的下一代高性能计算应用创新。
美光第二代 HBM3 解决方案满足了生成式 AI 领域对多模态、数万亿参数 AI 模型日益增长的需求。凭借高达 24GB 的单模块容量和超过 9.2Gb/s 的引脚速率,美光 HBM3 能使大型语言模型的训练时间缩短 30% 以上,从而降低总体拥有成本。此外,美光 HBM3 将触发每日查询量的显著增加,从而更有效地利用训练过的模型。美光第二代 HBM3 内存拥有业界一流的每瓦性能,将切实推动现代 AI 数据中心节省运营开支。在已经部署的 1,000 万个图形处理器(GPU)用例中,单个 HBM 模块可节约 5W 功耗,能在五年内节省高达 5.5 亿美元的运营费用。
第二代 HBM3 是美光领先技术的又一个里程碑。美光此前宣布推出基于 1α(1-alpha)节点、24Gb 单块 DRAM 裸片的 96GB 容量 DDR5 模组用于大容量服务器解决方案;如今推出基于 1β 节点、24Gb 单块 DRAM 裸片的 24GB 容量 HBM3 产品,并计划于 2024 年上半年推出基于 1β 节点、32Gb 单块 DRAM 裸片的 128GB 容量 DDR5 模组。这些新品展现了美光在 AI 服务器领域的前沿技术创新。
文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。
奥维云网(AVC)推总数据显示,2024年1-9月明火炊具线上零售额94.2亿元,同比增加3.1%,其中抖音渠道表现优异,同比有14%的涨幅,传统电商略有下滑,同比降低2.3%。
“以前都要去窗口办,一套流程下来都要半个月了,现在方便多了!”打开“重庆公积金”微信小程序,按照提示流程提交相关材料,仅几秒钟,重庆市民曾某的账户就打进了21600元。
华硕ProArt创艺27 Pro PA279CRV显示器,凭借其优秀的性能配置和精准的色彩呈现能力,为您的创作工作带来实质性的帮助,双十一期间低至2799元,性价比很高,简直是创作者们的首选。