您现在的位置是:首页 > 科技网站首页科技
人工智能如何化解芯片行业?
- 科技
- 2022-02-15 00:35:39
- 来源:
从计算的早期开始,人们就一直认为人工智能有一天会改变世界。几十年来,我们已经看到无数流行的文化参考和未来主义思想家描述的未来,但技术本身仍然难以捉摸。这一进展主要归功于边缘学术界和消费企业研究部门。
这一切都在五年前改变了。随着现代深度学习的出现,我们看到了这项技术在行动中的真实一瞥:计算机开始看、听和说话。人工智能第一次给人以有形、触手可及的感觉。
如今的人工智能发展主要集中在深度学习算法上,如卷积网络、循环网络、生成对抗网络、强化学习、胶囊网络等。所有这些都有一个共同点,那就是它们需要大量的计算能力。为了在普及这种智能方面取得真正的进展,我们需要彻底检查为这项技术提供动力的计算系统。
2009年,人们发现GPU作为一种计算设备,通常被认为是一个关键时刻,这有助于引发围绕深度学习的寒武纪大爆发。从那以后,对并行计算架构的投资激增。TPU(张量处理单元)的兴奋就是一个很好的例子,但TPU才刚刚开始。CB Insights的发言人告诉我的团队,仅在2017年,新的专用AI芯片初创公司就筹集了15亿美元。太神奇了。
我们已经看到新的创业公司进入这个领域,并挑战老牌公司,如英特尔、AMD、英伟达、微软、高通、谷歌和IBM。像Graphcore、Nervana、大脑、Groq、Vathys、Cambricon、SambaNova Systems和Wave Computing这样的新兴公司正在成为新星,为深度学习的未来铺平道路。虽然这些创业公司资金雄厚,但这些都是早期阶段。我们还没有看到谁会是赢家,未来会有什么样的老后卫。
将英伟达GPU引入主流,作为人工智能和深度学习的替代品。公司从消费类游戏龙头到AI芯片公司的计算流程非常出色。就像其对Volta 30亿美元的投资和CUDA/cuDNN等深度学习软件库的推广一样,它已将其从市场领先地位推升至主导地位。去年,它的股票走到了尽头,它的首席执行官黄仁勋被《财富》杂志评为年度最佳商人,这为他赢得了“新英特尔”的美誉。
然而,虽然英伟达在外观上可能看起来完全不同,但它仍然只制造了几十年来制造的相同显卡。但是GPU作为AI技术的未来是不确定的。批评者认为,GPU已经拥挤了20年,不适合深度学习。GPU是一种通用设备,可以支持各种应用,包括从物理模拟到电影渲染的所有应用。我们不要忘记,2009年第一次在深度学习中使用GPU,基本上就是一种黑客攻击。
攻击芯片市场的公司正在证明,人工智能将在专用芯片上实现更快的照明。最有可能的候选是ASIC(专用集成电路),它可以被高度优化以执行特定的任务。
如果你认为芯片正在从通用向专用发展,那么这个频谱包括中间的CPU、GPU和FPGA,另一方面包括ASIC。
CPU在执行高度复杂的操作时非常有效——基本上与支持深度学习训练和推理的特定数学类型相反。新进入者押注于ASIC,因为它们可以在芯片级设计,以处理大量简单任务。该板可以专用于一组窄函数——在这种情况下,稀疏矩阵乘法是高度并行的。即使是被设计成可编程的、因此稍微更通用的现场可编程门阵列,其隐含的多功能性也受到了阻碍。
专用AI芯片性能提升明显。那么这对更广泛的技术领域意味着什么呢?
和CPU相比,GPU不再商业化,我们看到AI芯片投资的涌入,GPU最终会被更专业的东西取代。考虑到英伟达的存在,英特尔的x86 CPU技术过于通用,无法满足日益增长的图形密集型应用需求。这里很讽刺。这一次,英特尔和英伟达都不会去袖手旁观,让创业公司吞噬这个新市场。机会太大了。
我们可能会看到英伟达和英特尔继续在Volta和Nervana(以及他们的继任者)上大量投资。AMD一直在努力解决互操作性问题(见下面的软件部分),但它很可能很快会拿出一些可用的东西。微软和谷歌正在与脑波和TPU以及许多其他项目合作。然后所有的创业公司。这份名单似乎每周都在增长,你很难找到一只没有在至少一名参与者身上下过相当大赌注的风险投资基金。
芯片领域的另一个问题是边缘计算,其中推理直接在设备上计算,而不是在云环境或公司数据中心计算。该模型可以直接部署在边缘,以满足低延迟要求(移动)或预测低功耗和间歇性连接的设备(嵌入式、物联网)。最近,有几个关于基于边缘的人工智能加速器的公告,比如谷歌的边缘TPU。
也许对于芯片领域的任何新人来说,最大的挑战不是硬件,而是软件。随着Nvidia CUDA/cunn在市场上占据一席之地,CUDA/cunn是一个软件库,它构成了芯片顶部必要的抽象层,让TensorFlow、PyTorch等框架无需编写复杂的底层指令就能运行。没有这些高级库,通常很难从代码的角落阅读。
度来定位芯片。问题是,CUDA和cuDNN不是开源的。它们是专有包,只能在Nvidia硬件上运行。在开发人员可以利用ASIC之前,提供商需要首先找到一种新方法,使框架可以轻松访问其芯片。如果没有这一点,开发人员将不会采用重要的(如果有的话) - 开发人员只会坚持使用Nvidia,因为它可行。需要有一个等同于CUDA / cuDNN的开源或需要移植到特定ASIC的框架,就像Google对TPU和TensorFlow所做的那样。没有明显的解决方案,这是一个巨大的障碍。
至少在短期内,我们会看到过多的芯片,一些直接相互竞争,另一些则专注于培训和推理的特定方面。这对行业意味着开发人员会有很多选择。与大规模商品化的CPU市场不同,该行业看起来正朝着更加多样化,异构化和特定应用的未来发展。
虽然我们不知道具体结果是什么,但有一点是肯定的:人工智能的未来在于专用ASIC而不是商品硬件。
Daniel Kobran是GPU云平台Paperspace的联合创始人。