您现在的位置是:首页 > 互联网网站首页互联网

英伟达推出大量AI处理芯片特斯拉V100

  • 互联网
  • 2022-02-19 01:06:04
  • 来源:
导读 Nvidia首席执行官黄仁勋发布了一款雄心勃勃的新处理器Tesla V100,用于人工智能应用。这款新芯片拥有210亿个晶体管,比英伟达一年前宣布

Nvidia首席执行官黄仁勋发布了一款雄心勃勃的新处理器Tesla V100,用于人工智能应用。

这款新芯片拥有210亿个晶体管,比英伟达一年前宣布的150亿帕斯卡处理器强一个数量级。这是一个巨大的芯片——815平方毫米,或者和Apple Watch一样大。它拥有5,120个CUDA处理核心,在7.5 FP64 teraflops下运行。性能是去年产品的三倍左右。

Nvidia推出大量AI处理芯片Tesla  V100

总部位于加州圣克拉拉的英伟达是最大的图形和人工智能芯片制造商。它在加州圣何塞举行的GPU技术大会上宣布了这一消息。

了解开发者和品牌营销人员如何利用人工智能发展业务将于7月11日至12日在SF的MB中展示。我们展示了营销人员如何通过炒作获得真正的投资回报。5月19日前早鸟享受五折优惠!

在介绍芯片之前,黄先生追溯了人工智能的近期历史。他指出,深度学习神经网络的研究大约在五年前开始取得成果,当时研究人员开始使用图形处理器(GPU)并行处理数据,以快速训练神经网络。从那以后,深度学习的步伐加快了。今年,英伟达计划培训10万名开发人员使用深度学习。

对于深度学习,特斯拉V100也称为Volta,可以处理120个张量万亿次浮点运算。它可以以每秒300千兆位的速度传输数据,比目前其他处理器快20倍。是三星给英伟达做的。

与去年基于Pascal的处理器相比,Volta的Tensor FLOP用于12次深度学习训练。由于深度学习算法的惊人进步,这个处理速度是必须的。

2015年,微软创建了一个名为ResNet的深度学习程序,该程序非常复杂,需要7个exaflops的处理能力。2016年,百度的Deep Speech 2 AI需要20万亿次浮点运算,而谷歌的NMT在2017年需要105万亿次浮点运算。

微软正在开发ResNet的新版本,它将64个Volta芯片连接在一起进行处理。尚不清楚Volta何时会大量出货。

免责声明:本文由用户上传,如有侵权请联系删除!
Top