首页 > 要闻 > 正文

NVIDIAAmpereGPU以光速进入GoogleCloud

导读 NVIDIA A100 GPU 发布后几週便登陆 Google Compute Engine NVIDIA A100 Tensor Core GPU 现已登陆 Google Cloud。 A100 推

NVIDIAA100GPU发布后几週便登陆GoogleComputeEngine

NVIDIAA100TensorCoreGPU现已登陆GoogleCloud。

A100推出后一个月便在GoogleComputeEngine中以alpha版的形式使用,成为NVIDIA有史以来最快登陆云端的GPU。

今天推出搭载A100的Accelerator-OptimizedVM(A2)执行个体家族,使Google成为首家提供全新NVIDIAGPU的云端服务供应商。

基于最新推出的NVIDIAAmpere架构打造的A100,是NVIDIAGPU有史以来最大的世代飞跃。相较过去的GPU,A100将训练和推论运算效能提高20倍以上,并大幅加快作业负载的速度,以推动人工智慧(AI)革命。

GoogleCloud产品管理总监ManishSainani表示:「GoogleCloud的用户经常希望我们提供最新的硬体和软体服务,以帮助他们推动人工智慧和科学运算作业负载的创新。如同当时成为首家导入NVIDIAT4GPU的供应商一样,我们凭藉全新的A2VM系列,很荣幸成为市场上首家採用NVIDIAA100GPU的主要云端供应商。我们很期待看到我们的用户将如何运用这些新功能。」

在云端资料中心中,A100可以支援广泛的运算密集型应用程式,包含AI训练和推论、资料分析、科学运算、基因组学、边缘影像分析与5G服务等。

透过GoogleComputeEngine上A100的突破性效能,将能让快速发展的关键性产业加快探索速度。从垂直扩充AI训练和科学运算,到水平扩充推论应用程式,再到实现即时对话式AI,A100可以加速在云端运行的各种複杂且不可预测的作业负载规模。

即将问世的NVIDIACUDA11让开发者可以使用NVIDIAA100GPU的全新功能,包含TensorCores、混合精度模式、多执行个体GPU、先进的记忆体管理以及标準C++/Fortran平行语言结构。


突破A100于云端中应付各种作业负载规模的效能表现

全新A2VM执行个体可以提供不同等级的效能,能在支援CUDA的机器学习训练与推论、资料分析,以及高效能运算中有效地加速作业负载。

针对大型且要求严苛的作业负载,GoogleComputeEngine为用户提供搭载16个A100GPU的a2-megagpu-16g执行个体,并以最大容量9.6TB/s的总频宽透过NVSwitch连接,总共提供640GB的GPU记忆体和1.3TB的系统记忆体。

对于作业负载较小的用户,GoogleComputeEngine也提供较小配置的A2VM,以满足特定应用程式的需求。

GoogleCloud宣布NVIDIAA100即将扩大支援GoogleKubernetesEngine、CloudAIPlatform和其他GoogleCloud服务。欲了解更多资讯,包含关于全新A2VM系列的技术内容以及如何注册存取权限,请参阅GoogleCloud部落格。

免责声明:本文由用户上传,如有侵权请联系删除!

标签:

Copyright @ 2015 -2023 太行之窗 All Rights Reserved. 网站地图 | 百度地图 .