ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存
作为当前最火的 AI 应用,人工智能聊天机器人 ChatGPT 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡。
有报道显示,为了创建和维持 ChatGPT 所需要的人工智能分析数据的庞大数据库,开发者使用了 10000 个英伟达 GPU 进行相关训练。而且与训练不同的是,实际支持应用时所需要的 GPU 会更多。
外媒在报道中提到,为了满足当前的服务器需求,OpenAI 已经使用了约 2.5 万个英伟达 GPU,而随着未来需求的增加,这一数字还将继续增长。
若将 ChatGPT 整合到搜索服务中,那使用的 GPU 将会是海量的。
外媒预计,将当前技术应用到每一次的 Google 搜索中,需要 512820 台 A100 HGX 服务器,将需要超过 410 万个 A100 GPU。因此,ChatGPT 的爆火可能会使全球再度面临 GPU 短缺的挑战,出现短缺的时间可能还会早于预期。
此外,英伟达 GPU 需求也使得三星和 SK 海力士的 HBM DRAM 吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。
在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。
随着 ChatGPT 受宠,三星、SK 海力士两家内存厂商接到了越来越多的 HBM 订单,NVIDIA 已经要求 SK 海力士生产最新的 HBM3 内存。

其他供应商,如英特尔也致力于在其下一代产品中集成 HBM3,这意味着 SK 海力士可能无法跟上需求。因此,业内人士指出相比当前最好的 DDR 内存,HBM3 的价格已经涨了 5 倍。
目前 HBM 内存市场上,SK 海力士公司占据最大的优势,该公司早在 2013 年就跟 AMD 合作开发了 HBM 内存,整体市场份额在60-70%之间。
三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。
编辑:崔崔

-
Lobe Chat免费自部署的AI聊天平台
Lobe Chat是一个开源的、可完全自托管的AI聊天平台,它完全打通了各种模型接入的壁垒,让你能用上市面上几乎所有主流大模型。包括Claude、ChatGPT、Gemini等等,甚至还能接入本地模型
-
Windows记事本越来越臃肿!新增Markdown功能惹用户不满
微软在Windows 11的记事本中不断加入新功能,如Markdown(文本格式化)支持,但部分Windows 11用户对此并不买账,认为记事本原本以简洁著称,而新功能的加入破坏了这种简洁性。Wind
-
黑客自称已窃取200万个OpenAI账户密码 尽管真实性较低但OpenAI已开始调查
在 BreachForums (转世版) 黑客论坛中,有使用俄语的黑客自称已窃取高达 200 万个 OpenAI 账户的访问凭证,这名黑客还按行业规矩向潜在买家提供包含电子邮件地址和密码的样本数据。不
关注公众号:拾黑(shiheibook)了解更多
赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号随时掌握互联网精彩
- 谷歌向发现Chrome沙盒逃逸漏洞的研究人员奖励25万美元表彰其出色工作
- Telegram惊现公开群组聊天索引机器人 抓取8.6亿名用户的560亿条发言记录
- 美国防部发布《数据、分析和人工智能采用战略》
- 美国发布《国家生物防御战略与实施计划》
- 慧聪网回应将停运的传闻,曾有人预言它会被阿里打败
- 网易治不好"游戏依赖症"
- 告别容器云管理烦恼,从「统信有雀」开始
- 微软助力浦发全景银行,共建产融结合科创生态
- 这什么神仙应用只有 21 KB,而且还能用
- 提前泄露小米10至尊版,博主赔偿100万;传字节跳动实习生删除GB以下所有机器学习模型;快手宣布7月将取消大小周|极客头条
- 技经观察 | 1840-2021的电子通信与大国竞争
- 加速国产化当虹科技完成统信UOS国产操作系统兼容互认证



微信扫码关注公众号