ASIC是一种为专门目的而设计的集成电路,功能特定的最优功耗AI芯片,专为特定目的而设计。不同于GPU和FPGA的灵活性,定制化的ASIC一旦制造完成将不能更改,所以初期成本高、开发周期长的使得进入门槛高。目前,大多是具备AI算法又成就梦想擅长芯片研发的巨头参与,如Google的TPU。
根据富比士报导,当前可用于加速机器学习训练及深度神经网路的主要芯片技术包括ASIC芯片、绘图芯片(GPU)、现场可程式化逻辑闸阵列(FPGA)芯片以及中央处理器(CPU)等4种,这4类芯片技术在支援AI及机器学习上各有擅场及优劣势,其中GPU在技术上即为ASIC技术运用在处理绘图演算法上,差异在于ASIC芯片可提供指令集及资源库可让GPU进行程式化,借此可用在处理本地储存资料。
基本上GPU速度非常快且相对具弹性,而ASIC技术虽同样具备处理速度很快优势,不过使用弹性相对较缺乏。在开发ASIC芯片上,要设计出一款ASIC芯片所需投入资源及努力不少,不仅需要耗资高达数千万甚或数亿美元,还必须组建一支成本不低的人才团队显示投资甚钜,而且还将必须不断升级以跟上新技术及制程水平,加之 ASIC 设计者 在开发过程初期便已固定其逻辑,因此若在AI这类快速演进领域有新想法出现, ASIC 芯片将无法对此快速做出反应.
同时, FPGA 技术还能因此进行再程式化以执行一项全新功能. 而未来发展中的另一个方面则是类脑型chip. 类脑型chip 是基于神经形态工程、借鉴人脑信息处理方式, 适用于实时处理非结构化信息、具有学习能力超低功耗chip,更接近人工智能目标.由于完美适用于神经网络相关算法, ASIC 在性能和功耗上的都要优于 GPU FPGA , TPU1 是传统 GPU 性能 的14-16倍,NPU 是 GPU 的118 倍.
理论上是这么讲,但现实问题是谁来代工? 先看代工厂这边,由全球多家代工厂,但是因为难度太高,有能力生产 AI 单封装系统的是台积电、三星和格罗方德这样的大厂。而哪些厂商真正擅长2.5D 集成和拥有设计所需关键IP(如HBM2 物理层接口和高速 SerDes)呢?这些都是模拟设计中非常苛刻挑战,从 ASIC 供应商那里购买 IP 可以把风险降至最低.
例如,一家名为 eSilicon 的公司正值得关注,上面提到的三项关键技术 eSilicon 都涉及到,他们一直从2011年以来一直做2.5D 集成并且被公认为这一领域领导者,同时eSilicon也有硅验证 HBM2 PHY 技术。此外,在SerDes方面,eSilicon虽然没有关于拥有SerDes 技术官方声明,但该公司网站已经出现了“高性能 SerDes 开发中心”的相关文字,并且正在招聘版图工程师,这说明问题正在发生变化.
总结来说,即使存在一些挑战,比如初期成本、高开发周期以及不可轻易改变的问题,但随着市场需求增加,对应解决方案也会越来越完善。此外,与其他类型硬件相比,如 CPU 和 FPGAs,它们提供了一种高度针对性的解决方案,使它们成为许多应用程序中的首选。