【导读】据Businesskorea报道,自去年12月以来,ChatGPT生成式人工智能迅速发展,这增加了对能够处理大规模数据的高性能DRAM即高带宽内存(HBM)的需求,与传统DRAM相比,HBM数据容量和速度可提高十倍以上。
据Businesskorea报道,自去年12月以来,ChatGPT生成式人工智能迅速发展,这增加了对能够处理大规模数据的高性能DRAM即高带宽内存(HBM)的需求,与传统DRAM相比,HBM数据容量和速度可提高十倍以上。
行业人士透露,三星电子、SK海力士等存储半导体企业正在推动HBM产线的扩张。两家公司计划在明年年底前投资超过2万亿韩元,使HBM生产线目前的产能增加一倍以上。SK海力士计划利用利川现有HBM生产基地后的清州工厂的闲置空间。三星电子正在考虑扩大位于忠清南道天安市的HBM核心生产线,该地区是设备解决方案部门下的先进封装团队的所在地。
市场研究公司TrendForce表示,以千兆字节(GB)为单位的HBM需求预计将激增60%,从2022年的1.81亿GB增加到2023年的2.9亿GB。与2023年相比,预计2024年将再增加30%。
据了解,最新的“HBM3”的总容量是最新DRAM产品GDDR6的12倍,带宽大约是13倍。
报道称,客户和HBM制造商通常会讨论产品开发一年以上,并生产定制产品。英伟达最近收到的来自SK海力士的HBM2E和HBM3也是1-2年前联合开发的产品。
HBM正在解冻存储器半导体市场。虽然三星和SK海力士尚未透露具体的HBM价格,但据悉最新第4代产品HBM3的价格约为最新传统DRAM的5-6倍。这就是今年HBM出货量仅占DRAM总出货量的1.7%,但其销售额比例却达到了11%的原因。
然而,要成为真正的“摇钱树”,业内人士指出,他们需要进一步提高HBM产量并降低生产成本。一所都市区大学的半导体研究教授表示,“层叠的DRAM越多,产量就越低,成本就越高”,而且“他们还必须克服‘生成式AI服务器’作为唯一需求来源的限制”。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读: