人工智能加速器芯片的机会大肆宣传,但市场有多大,今天哪些公司实际销售芯片?
ABI Research的两份新报告详细介绍了当今AI芯片组市场的发展状况。作为报告的作者,首席分析师带我们了解哪些公司和技术正在进入这个潜在的利润丰厚的市场。
人工智能在云端
第一份报告“Cloud AI芯片组:市场格局和供应商定位”强调了云AI推理和培训服务如何快速增长。由此产生的AI芯片组市场预计将从2019年的42亿美元增长到2024年的100亿美元。目前这一领域的领导者Nvidia和英特尔正受到Cambricon Technologies,Graphcore,Habana Labs和Qualcomm等公司的挑战。
据Su介绍,Nvidia仍然是这个市场的明显领导者,主要取决于其成熟的开发者生态系统及其先发优势。
“此外,随着AI模型,库和工具包的不断变化和更新,Nvidia作为一种良好的后备选择,因为它具有通用AI芯片组的能力,”Su说。“当然,随着市场的成熟,这些优势将逐渐减弱,但至少在可预见的未来,Nvidia仍将处于强势地位。”
今天的AI芯片组云市场分为三个部分。公共云由云服务提供商托管:AWS,Microsoft,Google,阿里巴巴,百度和腾讯等。然后是企业数据中心,它们实际上是私有云,加上ABI称之为“混合云”,意味着将公共云和私有云(VMware,Rackspace,NetApp,HPE,Dell)结合在一起的产品。
该报告还确定了另一个新兴的细分市场 - 电信云,它指的是电信公司为其核心网络,IT和边缘计算工作负载部署的云基础架构。
Su表示,这一新细分市场为AI芯片组制造商带来了巨大机遇。
“我们已经看到了像华为这样的网络基础设施供应商,在较小程度上看到诺基亚推出了针对电信网络功能进行优化的ASIC,”Su说。“这是一个巨大的市场,但Nvidia最近一直在努力进入这个市场。”
虽然Su没有看到任何其他公司在不久的将来取消Nvidia在云计算中对AI培训的支配地位,但推理更像是一种免费的,目前并不是由单一玩家主导。这在一定程度上取决于推理工作量的性质,它在垂直方向上有所不同。他说,从2020年起,预计ASIC将在该领域实现强劲增长。
将AI推理转移到边缘设备的当前趋势将意味着减少对智能手机,自动驾驶汽车和机器人等设备的云的依赖。但是,这并不意味着一些云服务提供商认为比培训工作量更大的推理工作量将会减少,Su说。
“一些人工智能永远不会走向边缘,例如聊天机器人和会话AI,欺诈监控和网络安全系统,”他说。“这些系统将从基于规则的系统发展为基于深度学习的AI系统,这实际上会增加推理工作量。[增加]将足以取代那些转向边缘的推理工作量。“
然后,有谷歌。谷歌的TPU(张量处理单元)可以解决云中的培训和推理问题,被视为CPU和GPU技术的强大挑战者(分别由英特尔和Nvidia领导)。正如报告所述,谷歌在TPU上的成功为其他云服务提供商(CSP)提供了开发自己的AI加速器ASIC的蓝图。华为,AWS和百度已经这样做了。
如果云服务提供商都在使用他们自己的芯片组,那么该部门的任何其他芯片组供应商是否会留下市场?
“你肯定是正确的,因为CSP开始在他们自己的芯片组上工作,这条路对新手来说非常具有挑战性,”Su说。“我们甚至预测,到2024年,15%至18%的市场将落在CSP之下。私人数据中心领域的机会更多。银行机构,医疗机构,研发实验室和学术界仍然需要运行AI,他们将考虑针对AI工作负载进行更优化的芯片组,这为Cerebras,Graphcore,Habana Labs和Wave Computing等新手提供了一些优势。
其他将从这些趋势中受益的参与者是IP核授权供应商,如ARM,Cadence和VeriSilicon,他们将负责为比以前更多的芯片组开发企业设计芯片组,Su说。
边缘的AI
ABI的第二份报告“Edge AI芯片组:技术展望和使用案例”将2018年边缘人工智能推理芯片组市场定为19亿美元。该报告还可能出人意料地确定了边缘培训市场。同年为140万美元。
今天哪些应用程序正在进行培训?Su解释说,这个数字包括网关(历史数据库或设备集线器)和内部部署服务器(在私有云中,但在地理位置上生成AI数据的位置)。专为内部服务器上的培训任务而设计的芯片组包括Nvidia的DGX,华为的网关和服务器,其中包括Ascend 910芯片组,以及针对来自Cerebras System,Graphcore和Habana Labs等内部部署数据中心的系统级产品。
“这种「边缘训练」市场仍然很小,因为云仍然是人工智能培训的首选地点,”Su说。
与此同时,边缘人工智能推理是2019年至2024年期间人工智能31%CAGR估计的主要原因。对于边缘推断,Su描述了三个主要市场(智能手机/可穿戴设备,汽车,智能家居/白色家电)以及三个利基市场。
第一个利基机器人通常需要异构计算架构,因为机器人依赖于许多类型的神经网络,例如用于导航的SLAM(同时定位和映射),用于人机界面的会话AI和用于对象检测的机器视觉,所有这些它们在不同程度上使用CPU,GPU和ASIC。他说,Nvidia,英特尔和高通在这个领域竞争激烈。
“第二个利基是智能工业应用,包括制造业,智能建筑以及石油和天然气部门,”他说。“由于传统设备,我们看到FPGA供应商在这一领域表现优异,但也归功于FPGA的架构,[这提供了]灵活性和适应性。”
最后,存在“非常优势”,即将超低功耗AI芯片组嵌入广域网中的传感器和其他小端节点的趋势。鉴于对超低功耗的关注,这个空间由FPGA公司,RISC-V设计和ASIC供应商组成。
到目前为止,谁实际上在边缘进行人工智能推理的设计?
“令人惊讶的是,或者不足为奇,由于智能手机的出货量很大,智能手机AI ASIC供应商实际上处于领先的AI芯片组市场的领先地位,”Su说。“这涉及Apple,HiSilicon,高通,三星以及联发科的较小程度。但是,如果我们严格谈论初创公司,我认为Hailo,Horizon Robotics和Rockchip似乎正在与终端设备制造商一起获得一些动力。“
Su还表示,软件对边缘AI芯片组的商业实施和部署至关重要,比较Nvidia正在进行的升级其编译工具和构建开发人员社区的努力,以及英特尔和Xilinx采取的方法,后者将与初创公司合作或收购拥有基于软件的加速解决方案。
“芯片组公司应考虑向开发人员社区提供工具包和库,以及开发人员教育计划,竞赛,论坛和会议,因为这将吸引开发人员与芯片组公司合作并开发相关应用程序。所有这些都不是新创业公司可以轻易实现的,“他说。
该报告的结论是,除了为开发人员社区提供合适的软件和支持外,该领域的成功公司还将提供良好的开发路线图,并由其他技术价值链提供支持。他们还需要在各种使用案例中为其芯片生成规模,同时保持有竞争力的价格点。