发布日期:2025-10-08 08:52 点击次数:56 |
快科技8月11日音书,AI这两年来成为商场热门,而且也成为大国竞争的重要技能之一,NVIDIA的GPU固然更执意,但在存储芯片上也要依赖韩国厂商,因为HBM内存缓缓卡住AI脖子。
HBM(High Bandwidth Memory)是一种高带宽内存设施,主要用于知足日益增长的缱绻需求。
比拟传统内存,HBM不错提供更高的数据传输速率和更低的延长。
在这个边界,领先量产的是SK海力士,好意思国也有好意思光公司运转量产,内存一哥三星反而是最慢的。
HBM最新设施还是到了HBM4,但商场上刻下的主力如故HBM3E,堆栈层数正在从8层普及到12层,单颗容量大致达到36GB,而SK海力士凭借技能上风不错作念到16层堆栈,容量48GB,本年就能供货。
收成于商场上风,SK海力士HBM办事部高管崔俊龙Choi Joon-yong日前在采访中暗示,来自末端用户对AI的需求相配弘大,而且相配安靖。
该公司也瞻望到2030年之前,HBM商场将以每年30%的增长率发展,商场范围将达到数百亿好意思元。
HBM内存也缓缓成为韩国芯片出口的王牌,客岁对好意思国的芯片总出口为107亿好意思元,其中HBM就占了存储芯片的18%。
NVIDIA、AMD及Intel三家主要的AI芯片巨头刻下及下一代的AI芯片也会进一步普及HBM显存的容量和速率,其中AMD来岁的主力居品MI400将使用高达432GB的HBM4,带宽19.6TB/s,对比MI350系列的288GB HEM3E、8TB/s诀别增多50%、145%,比竞争敌手的居品也进步50%。
值得一提的是,HBM也成为国内AI芯片发展的重要收尾要素之一,国内也有公司在自研HBM芯片,但技能水平落伍SK海力士一两代,HBM3e、HBM4量产还要等几年期间。
不外华为行将在改日两天公布一项新技能,这项恶果或能镌汰中国AI推理对HBM(高带宽内存)技能的依赖,普及国内AI大模子推感性能,完善中国AI推理生态的重要部分。
【本文终了】如需转载请务必注明出处:快科技
职守剪辑:宪瑞体育游戏app平台
著述本色举报 ]article_adlist--> 声明:新浪网独家稿件,未经授权不容转载。 -->