ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存

业界 作者:电脑报 2023-02-16 22:19:51

作为当前最火的 AI 应用,人工智能聊天机器人 ChatGPT 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡。


有报道显示,为了创建和维持 ChatGPT 所需要的人工智能分析数据的庞大数据库,开发者使用了 10000 个英伟达 GPU 进行相关训练。而且与训练不同的是,实际支持应用时所需要的 GPU 会更多。


外媒在报道中提到,为了满足当前的服务器需求,OpenAI 已经使用了约 2.5 万个英伟达 GPU,而随着未来需求的增加,这一数字还将继续增长。


若将 ChatGPT 整合到搜索服务中,那使用的 GPU 将会是海量的。


外媒预计,将当前技术应用到每一次的 Google 搜索中,需要 512820 台 A100 HGX 服务器,将需要超过 410 万个 A100 GPU。因此,ChatGPT 的爆火可能会使全球再度面临 GPU 短缺的挑战,出现短缺的时间可能还会早于预期


此外,英伟达 GPU 需求也使得三星和 SK 海力士的 HBM DRAM 吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。


在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。


随着 ChatGPT 受宠,三星、SK 海力士两家内存厂商接到了越来越多的 HBM 订单,NVIDIA 已经要求 SK 海力士生产最新的 HBM3 内存。



其他供应商,如英特尔也致力于在其下一代产品中集成 HBM3,这意味着 SK 海力士可能无法跟上需求。因此,业内人士指出相比当前最好的 DDR 内存,HBM3 的价格已经涨了 5 倍。


目前 HBM 内存市场上,SK 海力士公司占据最大的优势,该公司早在 2013 年就跟 AMD 合作开发了 HBM 内存,整体市场份额在60-70%之间。


三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。


编辑:崔崔

延伸阅读
  • 马斯克的AI初创公司xAI接近完成一轮10亿美元融资

    12月6日消息,埃隆・马斯克旗下的人工智能初创公司xAI日前向美国证券监管机构提交文件,计划通过股权融资筹集高达10亿美元(备注:当前约71.4亿元人民币)资金。根据周二的文件显示,该公司已经通过股权

  • 智造喵 中文智能对话AI聊天机器人平台

    智造喵是一个基于ChatGPT的中文智能对话AI聊天机器人平台,它可以让你与ChatGPT进行任意对话,也可以根据网站预设的几十种常用聊天角色场景,下达相应场景下的指令,让ChatGPT帮你完成相对应

  • AI 0x0基于ChatGPT的桌面端 AI 生成助手应用

    AI 0x0是一个基于ChatGPT的桌面端 AI 生成助手应用,支持在 mac 端和 win 端安装使用。它可以让您在任意桌面软件上使用 AI 能力来查询生成文本、图片、音频和视频等多种模态数据,帮

关注公众号:拾黑(shiheibook)了解更多

赞助链接:

关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接