pdf
科技先锋系列报告178:英伟达在线举办2020GTCChina发布会 - 中信证券
科技先锋系列报告178英伟达在线举办2020 GTC China发布会许英博首席科技产业分析师陈俊云前瞻研究高级分析师中信证券研究部·前瞻研究2020年12月22日英伟达举办2020 GTC China大会2020年12月15日,英伟达在线举办2020年GTC China大会,公司首席科学家Bill Dally发表了主题演讲发布会概览:并未发布新品,回顾了英伟达过去的发展此次发布会,英伟达并未发布新品。主要回顾了公司在过去一段时间内,在AI、图形等领域的进展BillDally英伟达首席科学家Bill Dally首席科学家Bill Dally教育经历:弗吉尼亚理工大学电气工程学士、斯坦福大学电气工程硕士、加州理工大学计算机科学博士学位。工作经历:BillDally曾在斯坦福大学任教12年,并于2009年加入NVIDIA担任首席科学家。荣誉:BillDally先后获得了2000年美国计算机协会MauriceWilkes奖、2004年美国IEEE计算机协会SeymourCray计算机工程奖。现在为美国国家工程院院士,美国艺术与科学学院院士,IEEE和ACM院士。公司软硬件产品最新动态基于CUDA架构,提供多种解决方案2006年,公司基于GPU硬件研发出CUDA架构,并用于光线追踪、AI、医疗等领域。GPU硬件是解决方案的基础,面对复杂的问题,需要软件来集成强大的算力。截至目前,英伟达基于CUDA架构提供多种解决方案,具体包括:光线追踪、AI、AI医疗Clara、IVA、自动驾驶、机器人等。英伟达基于GPU硬件,研发了CUDA架构,并提供多种解决方案NVIDIA A100,公司最新发布的GPU产品2020年5月,英伟达新发布了基于Ampere新架构NVIDIAA100的GPU芯片,主要用于人工智能训练和人工智能推理。该芯片的工艺制程为7nm,含有540亿个晶体管。该芯片采用第三代TensorCores,并增加了对于新数据类型TF32的支持。使用TF32进行训练,可以获得156teraflops的性能。NVIDIA A100芯片NVIDIA A100采用第三代Tensor CoresNVIDIA A100,可被分解为7个独立GPUNVIDIAA100可被分解为7个独立的GPU,使得各个GPU可以运行各自的任务。NVIDIAA100通过Ampere架构破解了神经网络稀疏性的问题,可以缩减A100的算力。MIG(多实例GPU)还可以将一个A100分解为7个独立的GPU,以便每个GPU都能运行各自的任务。NVIDIA A100可被分解为7个独立的GPU产品NVIDIA A100拓展后的数据传输带宽达600GB/sNVIDIAA100通过NVLink和NVSwitch可实现数据传输带宽扩展:如果需要扩展Ampere来解决更大规模的问题,可以通过采用NVLink和NVSwitch,使得GPU数据传输的带宽达到600GB/s(较上代产品带宽提升2倍)。NVIDIA A100,拓展后的数据传输带宽达600GB/sDGX POD,面向数据中心的新产品随着大数据、5G、IoT等行业的发展,海量数据处理任务涌入数据中心,使得其对AI训练、AI推理的要求不断提升:数据中心算力的提升并非简单地堆积计算节点。为了满足数据中心对AI训练、AI推理的不断需求,公司提供了DGXPOD新产品。DGXPOD解决了硬件集成协同工作的问题。同时,DGXPOD新产品将NVIDIA长期积累的超大规模数据中心AI部署经验转化为了可复制方案。DGX POD,面向数据中心的硬件产品
共 31 页 2020-12-31
举报
预览图
还剩31页未读,继续阅读
下载所需金币:1