设计工具
高带宽内存

HBM3E

业界最快的, 最高容量高带宽存储器(HBM),以推进生成式人工智能创新

暂停

美光HBM3E | AI高带宽内存

与美光HBM3E一起深入快速发展的人工智能领域, 业界最高效的高带宽内存,功耗比竞争对手低30%. HBM3E旨在推进生成式人工智能创新,提供超过1.2tb /s带宽,具有卓越的电源效率. 了解美光如何塑造人工智能的未来, 推动数据中心的发展, 工程, 医学, 和更多的. 所有这些,都在这里,用微米 HBM3E.

从链接的YouTube视频中截取HBM3e 固态硬盘的屏幕截图

样品现在可用于微米 HBM3E 12高36GB立方体

今天的生成式人工智能模型需要不断增长的数据量,因为它们需要扩展以提供更好的结果并应对新的机会. 美光1-beta内存技术的领先地位和封装的进步确保了最有效的数据流进出GPU. 美光的8高和12高HBM3E内存以比竞争对手低30%的功耗进一步推动了人工智能创新. 

美光HBM3E多芯片堆叠

美光开始量产业界领先的HBM3E,以加速人工智能的增长

美光的HBM3E比竞争对手的沙巴体育结算平台能耗低30%,有助于降低数据中心的运营成本. 8高24GB解决方案将成为NVIDIA H200 Tensor Core gpu的一部分,该gpu将于2024年第二季度开始发货.

美光HBM3E二芯片

加快人工智能创新速度

生成的人工智能

生成式人工智能为新形式的创造力和表达打开了一个世界, 就像上面的图片, 采用大语言模型(LLM)进行训练和推理. 计算和内存资源的利用会影响部署时间和响应时间. 美光HBM3E提供了更高的内存容量,提高了性能,并减少了AI CPU负载,从而在推理ChatGPT等llm时实现更快的训练和更灵敏的查询.™

由晶体制成的宇航员的3D插图

深度学习

人工智能为商业、IT、工程、科学、医学等领域带来了新的可能性. 随着更大的人工智能模型被部署来加速深度学习, 维护计算和内存效率对于解决性能问题非常重要, 确保所有人受益的成本和权力. 美光HBM3E提高了内存性能,同时注重能源效率,提高了每瓦性能,从而缩短了培训GPT-4等llm的时间.

浅蓝色、粉色和黄色的数据流组合在一起,形成了右边的各种数据集

高性能计算

科学家们, 研究人员, 工程师们面临的挑战是发现气候建模的解决方案, 治疗癌症和可再生和可持续能源. 高性能计算(HPC)通过执行非常复杂的算法和使用大型数据集的高级模拟来加快发现时间. 微米 HBM3E提供更高的内存容量,并通过减少跨多个节点分发数据的需求来提高性能, 加快创新步伐.

一位艺术家在昏暗的房间里,用触控笔在平板电脑上创作出色彩斑斓的抽象设计

HBM3E专为人工智能和超级计算打造,工艺技术行业领先

美光通过HBM3E扩展了我们数据中心沙巴体育结算平台组合的行业领先性能. 提供更快的数据速率, 改善热响应, 与上一代相比,在相同的封装面积内,单片芯片密度提高了50%.

微米 HBM3E单片机

HBM3E专为人工智能和超级计算打造,工艺技术行业领先

HBM3E为AI计算核心提供内存带宽

拥有先进的CMOS创新和行业领先的1β工艺技术. 微米 HBM3E提供更高的内存带宽,超过1.2 TB /秒.1

戴着人工智能护目镜的女性模糊图像

HBM3E开启了生成式AI的世界

内存容量增加50%2 每8高24GB立方体,HBM3E使训练具有更高的精度和准确性.

霓虹背景上的水花

HBM3E为AI和HPC工作负载提供了更高的每瓦性能

美光设计了一种节能的数据路径,可以降低热阻抗,并使其大于2.性能/功率比上一代提高5倍.

紫色霓虹色的现代高科技服务器机房生成AI插图

HBM3E开创了多模态、数万亿参数人工智能模型的训练

增加内存带宽,提高系统级性能, HBM3E减少了30%以上的训练时间4 and allows >50% more queries per day.5,6

聊天机器人与AI或人工智能技术聊天. 一名女子用笔记本电脑与人工智能聊天,询问他想要的答案

微米 HBM3E:开启前所未有的计算可能性的基础

微米HBM3E是最快的, 最高容量的高带宽内存,以推进人工智能创新- 8高, 24GB的多维数据集,提供超过1.2tb /s带宽和卓越的电源效率. 美光是您值得信赖的人工智能内存和存储创新合作伙伴. 

非裔美国数据工程师手持笔记本电脑,在被蓝光照亮的服务器室里与超级计算机一起工作, 本空间

常见问题

美光的HBM3E 8-high 24GB和HBM3E 12-high 36GB提供业界领先的性能,带宽大于1.2tb /s,功耗比市场上任何其他竞争对手低30%. 

美光HBM3E 8-high 24GB将于2024年第二季度开始在NVIDIA H200 Tensor Core gpu中发货. 微米 HBM3E 12-high 36GB样品现已上市.

美光的HBM3E 8-high和12-high模块提供业界领先的引脚速度大于9.2Gbps,可支持HBM2第一代设备的向后兼容数据速率.

美光的HBM3E 8-high和12-high解决方案提供业界领先的带宽超过1倍.每个位置2tb /s. HBM3E有1024个IO引脚,引脚速度大于9.2Gbps实现的速率大于1.2 tb /秒.

美光业界领先的hbm3e8 -high每个位置提供24GB的容量. 最近发布的美光HBM3E 12高立方体将提供令人瞠目的36GB容量. 

美光的HBM3E 8-high和12-high解决方案提供业界领先的带宽大于1.每个位置2tb /s. HBM3E有1024个IO引脚,引脚速度大于9.实现大于1的速率.2 tb /秒.​

HBM2提供8个独立的通道,运行在3点钟.每个引脚6Gbps,提供高达410GB/s的带宽,有4GB, 8GB和16GB容量. HBM3E提供16个独立通道和32个伪通道. 美光的HBM3E引脚速度大于9.2Gbps,业界领先的带宽超过1gbps.每个位置2tb /s. 美光的HBM3E提供了24GB的容量,使用了8高的堆栈,使用了12高的堆栈,提供了36GB的容量. 美光的HBM3E的功耗比竞争对手低30%. 

请参阅我们的 沙巴体育结算平台简短.

特色资源

1.  在制造测试环境下,基于引脚速度shmoo图的数据速率测试估计.
2.  相同堆叠高度的容量增加50%.
3.  基于工作负载用例的模拟结果的功率和性能估计.
4.  基于微米内部模型的参考 ACM出版,与当前的运输平台(H100)相比.
5.  基于美光内部模型,参考伯恩斯坦的研究报告, 英伟达(NVIDIA):用自下而上的方法来评估ChatGPT的机会, 2月27日, 2023,与当前的运输平台(H100)相比.
6.  基于商用H100平台和线性外推的系统测量.

沙巴体育结算平台? 沙巴体育结算平台的支持团队以及获取我们各个地点的联系信息.

\r\n"}}' id="teaser-1ca09e63de">

客户支持

需要沙巴体育结算平台? 沙巴体育结算平台的支持团队以及获取我们各个地点的联系信息.

沙巴体育结算平台特性、规格、功能等的深入信息.

\r\n"}}' id="teaser-6e2d5f536f">

搜索,过滤和下载数据表

获取有关沙巴体育结算平台特性、规格、功能等的深入信息.

订购一个微米样品

您的在线资源放置和跟踪订单的美光存储器样品.

下载 & 技术文档

帮助您设计、测试、构建和优化创新设计的资源.