英伟达推出H100 NVL:用于大语言模型训练

热点 2025-04-19 16:43:34 21975

今年以ChatGPT为首的英伟L用于大语大语言模型突然在网上爆红,引起了人们对于AI的达推极度追求。而大语言模型的模型训练则需要大量的计算卡,这便是训练英伟达的优势。去年英伟达正式推出了H100计算卡,英伟L用于大语让计算卡的达推性能达到新的高度,而这一次英伟达又推出了H100 NVL,模型专门为大语言模型而打造。训练

NVIDIA-H100-NVL-1200x392.jpg

英伟达表示H100 NVL是英伟L用于大语为大型语言模型所准备的产品,由2块H100计算卡通过PCIe桥接在一起,达推相比较单张H100计算卡,模型这套系统可以提供188GB的训练HBM 3显存。而英伟达称目前ChatGPT所采用的英伟L用于大语训练计算机搭载的是英伟达HGX A100,而如果说使用H100 NVL计算卡的达推话,基于四对H100以及双NVLINK的模型服务器可以让处理与计算速度提升10倍,从而让大语言模型的处理效率大幅提升,进而降低使用成本。甚至通过软硬件的优化,大语言模型的建模与训练速度最高可以提升30倍。预计H100 NVL计算卡将会在今年下半年和大家正式见面。

NVIDIA-H100-NVL.png

除此之外英伟达也推出了L4,专门为AI视频解码与转码打造,英伟达表示相比较传统的CPU转码,通过L4这样的专属芯片可以实现最高120倍的AI视频性能提升,并且能效比提升99%,英伟达称基于8块L4 GPU的视频解码服务器可以替代原有100多台的视频解码服务器,同样也是大幅提升工作效率,增加企业的生产力。可以说无论是H100 NVL还是L4,都是英伟达为专属领域所推出的计算设备,相比较过去的通用性芯片,这种专属芯片拥有更加出色的优化,能够为特定任务起到事半功倍的效果。

本文地址:http://315wwg.cc/html/60d92799012.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

丹佛大学教授赵穗生:“美国最大的敌人是自己”

雅安市市长彭映梅:在“小城市、大农村”深化“飞地”合作

老车主福音!车机性能飙升30%,领克车机升级计划公布

3092万人获冬春救助

Apple宣布今年晚些时候推出新的tvOS 16 功能

闪存的胜利 相机存储卡发展简史

索尼官宣PSVR2将于明年2月22日正式发售 定价549.99美元

小米笔记本Air 13发布,搭载OLED显示屏和英特尔第12代CPU

友情链接