全球十大AI训练芯片大盘点
副标题[/!--empirenews.page--]
本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 AI芯片哪家强?现在,有直接的对比与参考了。 英国一名资深芯片工程师James W. Hanlon,盘点了当前十大AI训练芯片。 并给出了各个指标的横向对比,也是目前对AI训练芯片最新的讨论与梳理。 其中,华为昇腾910是中国芯片厂商唯一入选的芯片,其性能如何,也在这一对比中有了展现。 ![]() △ *代表推测,†代表单芯片数据。 Cerebras Wafer-Scale Engine ![]() 这一芯片于今年8月份正式面世,名为“晶圆级引擎”(Cerebras Wafer Scale Engine,简称WSE)。 其最大的特征是将逻辑运算、通讯和存储器集成到单个硅片上,是一种专门用于深度学习的芯片。 一举创下4项世界纪录:
之所以能够有如此亮眼的数据,直接得益于其集成了84个高速互连的芯片,单个芯片在FP32上的峰值性能表现为40 Tera FLOPs,芯片功率达15千瓦,与AI集群相当。 片上缓存也达到了18GB,是GPU缓存的3000倍;可提供每秒9PB的内存带宽, 比GPU快10,000倍。 晶片规模集成,并不是一个新的想法,但产量、功率传输和热膨胀相关的问题使其很难商业化。在这些方面,Cerebras都给出了相应的解决办法:
Cerebras公司由Sean Lie(首席硬件架构师)、Andrew Feldman(首席执行官)等人于2016年创立。后者曾创建微型服务器公司SeaMicro,并以3.34亿美元的价格出售给AMD。 该公司在加州有194名员工,其中包括173名工程师,迄今为止已经从Benchmark等风投机构获得了1.12亿美元的投资。 拓展阅读: 史上最大AI芯片诞生:462平方厘米、40万核心、1.2万亿晶体管,创下4项世界纪录 Google TPU(v1、v2、v3) Google TPU系列芯片正式发布于2016年,第一代芯片TPU v1只用于推理,而且只支持整数运算。 通过在PCIe-3之间发送指令来执行矩阵乘法和应用激活函数,从而为主机CPU提供加速,节省了大量的设计和验证时间。其主要数据为:
IO数据:
2017年5月,Google TPU v2发布,改进了TPU v1的浮点运算能力,并增强了其内存容量、带宽以及HBM 集成内存,不仅能够用于推理,也能够用于训练。其单个芯片的数据如下:
单核数据:
IO数据:
Google TPU v2发布一年之后,Google再度发布新版芯片——TPU v3。 ![]() 但关于TPU v3的细节很少,很可能只是对TPU v2一个渐进式改版,性能表现翻倍,增加了HBM2内存使容量和带宽翻倍。其单个芯片的数据如下:
IO数据:
拓展阅读: 想了解TPU 3.0?Jeff Dean推荐看看这段视频 Graphcore IPU Graphcore成立于成立于2016年,不仅备受资本和业界巨头的青睐,还颇受业内大佬的认可。 2018年12月,宣布完成2亿美元的D轮融资,估值17亿美元。投资方有宝马、微软等业界巨头,还有著名的风投公司Sofina、Atomico等。 AI巨头Hinton、DeepMind创始人哈萨比斯,都直接表达了赞美。 (编辑:青岛站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |