2443|0

3836

帖子

19

TA的资源

纯净的硅(中级)

楼主
 

GPU/FPGA脱颖而出,CPU/DSP还有哪些可能 [复制链接]

     芯片作为产业链技术要求最高的环节之一,往往是最难攻克的阵地。2016年,我们谈中国集成电路在芯片环节还比较薄弱;2017上半年,我们说我国与美国的差距主要在硬件方面,尤其是芯片环节;2017下半年及2018年,我们看到一批本土AI芯发布,很多还带有“首款”的荣誉称号,首款嵌入式AI芯、首款人脸识别AI芯、首款AI移动芯片等等。

似乎,集成电路最难攻克的环节——芯片,在AI大环境下,一切都变得那么EASY。这是真的吗?

AI芯定义
广义上讲,可以运行AI算法的都可以称为AI芯片,只不过效率有高有低;狭义上说,针对AI算法专门做了特殊加速设计的芯片才是AI芯片。


AI芯的硬件核心
AI芯的核心就是神经网络加速器,或者叫深度学习加速器。

AI芯分类

芯片架构,四大类芯片

通用类芯片,代表如CPU、GPU、FPGA;

基于FPGA的半定制化芯片,代表如深鉴科技DPU、百度XPU等;

全定制化ASIC芯片,代表如TPU、寒武纪 Cambricon-1A等;

类脑计算芯片,代表如IBM TrueNorth、westwell、高通Zeroth等。

功能,训练( Training)与推理(Inference)

训练(Training):通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。

该过程对处理器的计算能力、精度、可扩展性等性能要求很高,能胜任此环节工作的芯片有英伟达的GPU集群与Google  TPU2.0。

推理(Inference):利用训练好的模型,使用新的数据去“推理”出各种结论。

相比训练过程,推理的计算量像是个“小儿科”,尽管如此,但此过程也涉及大量的矩阵运算。GPU、FPGA和ASIC在此过程发挥作用。

GPU赢过CPU就是因为GPU比CPU专用。GPU借助在深度学习方面的优势,成为最有竞争力的AI芯片;CPU通用性强,适用于串行计算,对于AI算力而言,较缓慢。当然,CPU与GPU都不是发展AI最专用的芯片。
2017年12月,IBM推出首个为AI而生的服务器CPU POWER9,旨在为数据密集型人工智能工作负载管理自由流动数据、流传感器及算法。该处理器采用14纳米技术,嵌入80亿个晶体管。

POWER9试图通过最新的技术和联盟来解决系统短板——异构处理器是否有足够的带宽与系统的其它部分进行通信。
从通用CPU到AI定制CPU,POWER9代表了CPU行业在AI领域的发展趋势。

对于云端AI芯片市场,小公司只能觊觎,这是一场属于寥寥可数大公司的权利游戏,云端发展不只需要有高运算力的芯片,还得营造出生态系,基本上供应商就是这几家巨头。但对于终端市场,能实现更小功耗、更低成本的xPU与ASIC将成为主流。这就注定通用AI芯向专用AI芯发展的趋势。


点赞 关注
 

回复
举报
您需要登录后才可以回帖 登录 | 注册

随便看看
查找数据手册?

EEWorld Datasheet 技术支持

相关文章 更多>>
关闭
站长推荐上一条 1/9 下一条

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 国产芯 安防电子 汽车电子 手机便携 工业控制 家用电子 医疗电子 测试测量 网络通信 物联网

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2025 EEWORLD.com.cn, Inc. All rights reserved
快速回复 返回顶部 返回列表