07
27

美光推出首款8层堆叠24GB第二代HBM3内存,可缩短大型语言模型使用时间

2023-07-27 15:10分享至
美光已宣布已出样业界首款8层堆叠的24GB容量第二代HBM3内存,基于1β DRAM制程节点高带宽内存(HBM)解决方案,带宽超过1.2TB/s,引脚速率超过9.2Gb/s,比现有HBM3解决方案性能可提升最高50%。美光介绍,第二代HBM3产品与前一代产品相比,每瓦性能提高2.5倍,可帮助缩短大型语言模型(如GPT-4及更高版本)的训练时间,降低总体拥有成本(TCO)。(界面)原文链接

下一篇

36氪获悉,亚马逊云科技近日在纽约峰会上宣布,推出七项生成式AI创新。其中包括,全面扩展其全托管基础模型服务Amazon Bedrock,包括新增Cohere作为基础模型供应商,加入Anthropic和Stability AI的最新基础模型,并发布变革性的新功能Amazon Bedrock代理。

2023-07-27

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业