英伟达发布ChatGPT专用GPU,处理速度快10倍
3月21日,图形芯片巨头英伟达(NVIDIA)召开2023年GTC大会,其创始人兼CEO黄仁勋介绍了英伟达在人工智能(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI(人工智能)视频的芯片L4,以及AI超级计算服务DGX Cloud等。黄仁勋多次提到,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIA H100 NVL。H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPU NVLINK的PCIE H100 GPU,能处理含1750亿参数的GPT-3。与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍,能将大语言模型的处理成本降低一个数量级。(澎湃新闻)
往期推荐
- 券商资管申请公募牌照热情持续高涨2023-03-22
- 北京金融资产总量超190万亿元2023-03-22
- 电池级碳酸锂价格跌破30万元/吨2023-03-22