美光宣布量产 HBM3e 内存,将应用于英伟达 H200 AI 芯片

科技IPO观察 20240226

  • 人工智能
  • 英伟达
  • HBM3E

感谢IT之家网友 华南吴彦祖 线索投递!

IT之家 2 月 26 美光科技今天宣布开始批量生产 HBM3E 高带宽内存,它 24GB 8H HBM3E 产品将供应给英伟达并应用于英伟达 NVIDIA H200 Tensor Core GPU(第二季度开始发货)。

IT之家查询官方资料了解, 美光 HBM3e 内存基于 1β 工艺,采用 TSV 封装、2.5D / 3D 堆叠,可提供 1.2 TB / s 性能更高。

美光表示,与竞争对手的产品相比,美光表示 HBM3E 解决方案具有以下三个优点:

  • 卓越性能:美光 HBM3E 拥有超过 9.2 Gb / s 针脚速率,超过 1.2 TB / s 内存带宽可以满足人工智能加速器、超级计算机和数据中心的苛刻需求。

  • 卓越的能效:与竞争产品相比,美光 HBM3E 功耗降低了约 在提供最大吞吐量的前提下,将功耗降至最低,有效提高数据中心的运营支出指标。

  • 无缝扩展: 美光 HBM3E 目前可提供 24GB 容量可以帮助数据中心轻松扩展 AI 应用程序。无论是训练大型神经网络还是加速推理任务,都可以提供必要的内存带宽。

美光科技执行副总裁兼首席商务官 Sumit Sadana 说:“美光科技有这个 HBM3E 里程碑实现了三连胜:上市时间领先、行业性能一流、能效差异化概况。“人工智能的工作负载严重依赖于内存带宽和容量,美光处于有利地位,可以通过我们的行业领先 HBM3E 和 HBM4 我们用于人工智能应用的完整路线图和路线图 DRAM 和 NAND 为了支持未来人工智能的显著增长,解决方案组合。”。

HBM 它是美光科技最赚钱的产品之一,部分原因是其结构所涉及的技术复杂性。该公司此前曾表示,预计 2024 财年 HBM 收入将达到“数亿”美元 2025 年度持续增长。

美光还宣布将在这里 3 月 18 全球人工智能会议将分享更多关于其行业领先的人工智能内存产品组合和路线图。

广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。IT之家的所有文章都包括本声明。

声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请与我们联系,我们将及时更正、删除,谢谢。

查看全文

点赞

科技IPO观察

作者最近更新

  • 国产IEC61499工业控制软件AIOSYS重磅发布,重构智能制造技术支撑体系
    科技IPO观察
    09-23 15:45
  • 研华 MIC-743边缘AI新品首发 基于英伟达Thor平台提供强劲算力
    科技IPO观察
    09-23 18:51
  • 5800万!这家磁传感器企业完成种子轮融资
    科技IPO观察
    04-29 18:02

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • 华为首款AI音箱:可通过HiLink开放协议控制19个家电品类

    2020-02-21

  • 本田将在CES展出自动驾驶作业车和机器人新品

    2018-12-14

  • 日本新研究:人工智能或能提前一周预测台风

    2019-01-08

评论0条评论

×
私信给科技IPO观察

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告