365|0

60

帖子

0

TA的资源

一粒金砂(中级)

楼主
 

《大模型时代的基础架构》软件程序与专用硬件的结合 [复制链接]

 

邀请:@tagetage   @littleshrimp   @nmg   @okhxyyo   参与回复

GPU并行计算库

第二章比较了C语言和GPU实现向量加法代码的区别,来体现在GPU上运行的CUDA是一个原生为并行计算设计的框架。

CUDA向开发者屏蔽了内存数据传输到方式,在libcudart.so等动态链接库中调用了GPU的KMD来让GPU执行计算。

  • KMD:Kernel Mode Driver,内核模式驱动

分布式AI训练

  • 模型并行策略:将模型部署到很多设备上,由于显存限制,当模型很大的时候,单个模型难以跑在单个GPU。
  • 数据并行策略:多个GPU上放置相同模型,各个GPU采用不同的数据进行训练。

总结

希望可以对大家去学习CUDA和TensorFlow的原理起到抛砖引玉的效果。深入AI,学习原理必不可少。

点赞 关注
 
 

回复
举报
您需要登录后才可以回帖 登录 | 注册

随便看看
查找数据手册?

EEWorld Datasheet 技术支持

相关文章 更多>>
关闭
站长推荐上一条 1/7 下一条

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 国产芯 安防电子 汽车电子 手机便携 工业控制 家用电子 医疗电子 测试测量 网络通信 物联网

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2025 EEWORLD.com.cn, Inc. All rights reserved
快速回复 返回顶部 返回列表