加入收藏
 免费注册
 用户登陆
首页 展示 供求 职场 技术 智造 职业 活动 视点 品牌 镨社区
今天是:2025年5月3日 星期六   您现在位于: 首页 →  产通直播 → 半导体器件(产品通报)
英伟达推出首批基于NVIDIA Hopper架构的产品和服务
2022/11/7 21:35:27     

按此在新窗口浏览图片

【产通社,11月7日讯】NVIDIA公司(NASDAQ股票代码:NVDA)官网消息,其H100 Tensor Core GPU全面投产,NVIDIA全球技术合作伙伴计划于10月推出首批基于开创性NVIDIA Hopper架构的产品和服务。H100于2022年4月发布,由800亿个晶体管组成,并采用了众多开创性的技术,包括强大的全新Transformer引擎和NVIDIA NVLink互连技术,以加速最大规模的AI模型,如高级推荐系统和大型语言模型,并推动对话式AI和药物发现等领域的创新。

NVIDIA创始人兼首席执行官黄仁勋表示:“Hopper是AI工厂的全新引擎。它能够处理和挖掘海量数据,训练具有数万亿参数的模型,这些模型将推动基于语言的AI、机器人、医疗和生命科学领域的进步。Hopper Transformer引擎将性能提升了一个数量级,使大规模AI和HPC能够为企业和研究人员所用。”

Microsoft Azure AI基础设施总经理Nidhi Chappell表示:“我们期待着在Microsoft Azure的最新H100 GPU上实现下一代AI模型。借助Hopper架构的进步,加之我们在Azure AI超级计算方面的投资,我们将能够助力加速全球AI的发展。”

Oracle Cloud Infrastructure产品管理副总裁Karan Batta表示: “我们通过为客户提供NVIDIA最新的H100 GPU,帮助他们加速最为复杂的机器学习和HPC工作负载。另外,凭借NVIDIA的新一代H100 GPU,我们能够为内部要求严苛的工作负载提供支持,并助力我们共同的客户在医疗、自动驾驶汽车、机器人和物联网领域取得突破。”


产品特点


除了Hopper的架构和Transformer引擎之外,第二代多实例GPU、机密计算、第四代NVIDIA NVLink和DPX指令等若干关键性创新也让H100 GPU如虎添翼,实现了NVIDIA加速计算数据中心平台的又一次飞跃。

用于主流服务器的H100现包含为期五年的NVIDIA AI Enterprise软件套件许可。这将优化AI工作流的开发和部署,确保用户能够获得构建AI聊天机器人、推荐引擎、视觉AI等所需的AI框架和工具。

H100使企业能够削减AI的部署成本,相较于上一代,在提供相同AI性能的情况下,可将能效提高3.5倍,总体拥有成本减少至1/3,所使用的服务器节点数也减少至1/5。

对于有意立即尝试这项新技术的客户,NVIDIA已宣布戴尔PowerEdge服务器上的H100现可在NVIDIA LaunchPad上使用。NVIDIA LaunchPad为企业提供免费的动手实操实验室,让企业能够接触到最新的硬件和NVIDIA AI软件。

NVIDIA DGX H100系统现在也已开始接受客户预定。该系统包含8个H100 GPU,FP8精度的峰值性能达到32 PFlops。每个DGX系统都包含NVIDIA Base Command和NVIDIA AI Enterprise软件,可实现从单一节点到NVIDIA DGX SuperPOD的集群部署,为大型语言模型和其他大规模工作负载的高级AI开发工作提供支持。

全球领先的计算机制造商所提供的搭载H100的系统预计将在未来几周内发货,到今年年底将有超过50款服务器型号面市,2023年上半年还将有数十款型号面市。已在构建系统的合作伙伴包括源讯(Atos)、思科、戴尔科技、富士通、技嘉科技、慧与、联想和超微。

此外,数家全球领先的高等教育和研究机构的新一代超级计算机也将采用H100。其中包括巴塞罗那超级计算中心、洛斯阿拉莫斯国家实验室、瑞士国家超级计算中心(CSCS)、德州高级计算中心和筑波大学。

AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure将从明年开始率先在云端部署基于H100的实例。H100先进的Transformer引擎技术可助力企业快速开发精度更高的大型语言模型。随着这些模型的规模不断扩大,其复杂性也在不断提升,有些模型的训练时间甚至长达数月。

为解决这一问题,一些全球领先的大型语言模型和深度学习框架正在H100上进行优化,包括NVIDIA NeMo Megatron、Microsoft DeepSpeed、Google JAX、PyTorch、TensorFlow和XLA。这些框架与 Hopper架构相结合,能够显著提升AI性能,将大型语言模型的训练时间缩短到几天乃至几小时。

查询进一步信息,请访问官方网站http://investor.nvidia.com。(Lisa WU, 365PR Newswire)     (完)
→ 『关闭窗口』
 -----
 [ → 我要发表 ]
上篇文章:Faraday智原推出支援多家晶圆厂FinFET工艺的芯…
下篇文章:安森美ECS640A ecoSpin系列BLDC控制方案无刷…
  → 评论内容 (点击查看)
您是否还没有 注册 或还没有 登陆 本站?!
 分类浏览
官网评测>| 官网  社区  APP 
STEAM>| 学术科研  产品艺术  技术规范  前沿学者 
半导体器件>| 产品通报  企业动态  VIP追踪 
电子元件>| 产品通报  企业动态  VIP追踪 
消费电子>| 产品通报  企业动态  VIP追踪 
商业设备>| 产品通报  企业动态  VIP追踪 
电机电气>| 产品通报  企业动态  VIP追踪 
电子材料>| 产品通报  企业动态  VIP追踪 
电子测量>| 产品通报  企业动态  VIP追踪 
电子制造>| 产品通报  企业动态  VIP追踪 
应用案例>| 家庭电子  移动电子  办公电子  通信网络  交通工具  工业电子  安全电子  医疗电子  智能电网  固态照明 
工业控制>| 产品通报  企业动态  VIP追踪 
通信电子>| 产品通报  企业动态  VIP追踪 
交通工具>| 产品通报  企业动态  VIP追踪 
基础工业>| 产品通报  企业动态  VIP追踪 
农业科技>| 产品通报  企业动态  专家追踪 
信息服务>| 企业动态 
光电子>| 企业动态 
关于我们 ┋ 免责声明 ┋ 产品与服务 ┋ 联系我们 ┋ About 365PR ┋ Join 365PR
Copyright @ 2005-2008 365pr.net Ltd. All Rights Reserved. 深圳市产通互联网有限公司 版权所有
E-mail:postmaster@365pr.net 不良信息举报 备案号:粤ICP备06070889号