跟着谷歌、阿里等云服务商连续发布AI专用芯片,全球云服务巨子AWS也初次发布了自己的AI芯片。
美国当地时间11月28日,在re:Invent大会上,亚马逊旗下的云服务公司AWS宣告将在2019年正式推出自己研制的AI芯片AWSInferentia,首要用于机器学习推理运用。
AWSCEOAndyJassy表明,该芯片具有高吞吐量、低推迟、功能高且极具本钱效益,这将会是“职业颠覆者”。
此次AWS发布的AI芯片首要经过其云事务向外供给服务,并不直接出售这些芯片,因而,Andy口中的这一“职业颠覆者”并不会对芯片巨子英特尔和英伟达构成直接要挟。Andy表明,客户可以经过AWS的EC2instances、AmazonSageMaker和ElasticInference等产品取得这一服务。与其他AWS服务相同,用户可以依据运用量付费。
Inferentia支撑FP16和INT8精度,并将支撑干流深度学习结构,包含TensorFlow、MXNet、PyTorch、Caffe2和ONNX。在功能上,Andy称Inferentia芯片的核算力将会高达几百TOPS。
AI芯片首要分为云端和终端芯片。现在干流的深度学习算法包含练习和推理两个阶段。英伟达的GPU和英特尔的CPU别离占有了练习和推理两大商场。
Andy称,机器学习核算本钱的绝大部分用于推理,这一份额高达90%。他以为,AWS发布的云端AI专用芯片Inferentia将极具本钱效益。
从软件到硬件,AWS的产品和服务覆盖面越来越广。就在本周,AWS还发布了根据ARM架构的Graviton云核算处理器芯片,这一产品更侧重于低本钱高能效的核算。AWS在数据中心运用Arm芯片,或许将对英特尔的主导地位提出应战。
AWS发布的上述芯片与此前收买的以色列芯片企业AnnapurnaLabs密不可分。2015年,亚马逊以3.5亿美元收买了这一公司。
不过,这并不意味着AWS将要点转移到硬件上。在会后承受采访时,Andy称,AWS致力于打造自己的软件和服务,而硬件方面可以挑选不同的硬件产品。AWS前期首要运用戴尔、惠普等OEM厂商的产品,现在则会自己规划硬件和芯片,“咱们欢迎不同的硬件供货商,咱们期望可以取得适宜的硬件价格,这样客户也可以降低本钱,因而打造更好的客户体会。”
纵观全球,越来越多的云服务厂商开端推出自己的AI专用芯片。2016年,谷歌宣告推出TPU加快其机器学习使命,并每年更新。在本年I/O大会上,谷歌发布了其第三代TPU芯片。国内云服务龙头阿里巴巴也在本年宣告将推出AI芯片。
与英伟达、英特尔这些芯片厂商比较,云服务厂商的AI芯片方案仍处于相对初级阶段。一起,从现在来看,云服务厂商的芯片首要自用,根据本身的AI运用打造,并不向外出售。
但这一趋势终究仍可能会影响传统芯片厂商的事务,由于AWS、谷歌和阿里这些云服务大厂是英特尔和英伟达等重要客户。跟着上述云服务厂商的自研AI芯片越来越老练,他们将会削减对芯片供货商的依靠。
一起,草创企业的或许也将收到影响。据商场研讨公司CompassIntelligence发布的全球AI芯片排行榜,除了英伟达、英特尔等传统芯片公司巨子,寒武纪、地平线等AI芯片公司也位居前列。这类草创公司招引了很多出资者的爱好,乃至在未发布产品的情况下取得很多出资。可是,草创企业能取得的客户有限,并且商场容量也有限。
人工智能技能和产业化渠道供货商小i机器人CEO朱一再此前告知记者,他以为从商业模式看,做芯片的意图是为了削减芯片的体积、功耗和本钱。而要可以到达低本钱,有必要到达必定的销量,“这就意味着你要去做的运用场景有必要是一个规范的可被仿制的场景,不能太针对化。而一旦找到一个十分规范的运用场景,巨子们都进来了。在这种情况下,不是咱们这种公司所可以做好的。”
清华大学微电子所所长魏少军曾指出,AI芯片的开展很可能会在未来2~3年遭受一个波折期。今日的部分,乃至大部分创业者将成为这场技能革新中的“先烈”。