4863|15

7275

帖子

2

TA的资源

版主

楼主
 

本地运行ChatGPT需要什么显卡? [复制链接]

 

现在大多数ChatGPT都是云服务器的,那如果想在本地跑ChatGPT,需要什么配置的显卡?

通过查询【推荐使用兼容CUDA的NVIDIA GPU,如GTX 1080 Ti或更高型号】,大家的显卡 能满足这个要求吗?我准备配一个能跑ChatGPT的主机,大家有何推荐?

 

   

最新回复

那根本无需什么高端显卡。很少用到GPU全部的性能,那根本不必买显卡,用AMD的ZEN平台,整合GPU的性能都已达到中端显卡的性能了。   详情 回复 发表于 2024-5-20 18:13
点赞 关注

回复
举报

3239

帖子

0

TA的资源

五彩晶圆(中级)

沙发
 

你问这问题应该是没有做前期工作,硬件配置的钱得7位数,你能接受吗????? 你说的哪是几年前勉强运行的配置,现在参数多了。硬件配置需求也大幅提升。

点评

我自己跑ChatGPT,不用七位数吧,公司想买个ChatGPT服务器,最多也就六位数。  详情 回复 发表于 2024-5-13 11:21
 
 

回复

7275

帖子

2

TA的资源

版主

板凳
 
tagetage 发表于 2024-5-13 11:12 你问这问题应该是没有做前期工作,硬件配置的钱得7位数,你能接受吗????? 你说的哪是几年前勉强运行的 ...

我自己跑ChatGPT,不用七位数吧,公司想买个ChatGPT服务器,最多也就六位数。

点评

勉强能用很慢 和 比较流畅运行 的区别。  详情 回复 发表于 2024-5-13 13:12
哦?看英伟达的GPU是哪一款的吧?也有7位数RMB的(10万刀的话,就快7位数了)  详情 回复 发表于 2024-5-13 12:31
 
 
 

回复

5264

帖子

236

TA的资源

管理员

4
 

为何非要本地跑

加EE小助手好友,
入技术交流群
EE服务号
精彩活动e手掌握
EE订阅号
热门资讯e网打尽
聚焦汽车电子软硬件开发
认真关注技术本身

点评

想体验体验,搭建一个自己的ChatGPT呀。  详情 回复 发表于 2024-5-13 14:16
 
 
 

回复

1392

帖子

1

TA的资源

五彩晶圆(初级)

5
 
wangerxian 发表于 2024-5-13 11:21 我自己跑ChatGPT,不用七位数吧,公司想买个ChatGPT服务器,最多也就六位数。

哦?看英伟达的GPU是哪一款的吧?也有7位数RMB的(10万刀的话,就快7位数了)

点评

英伟达的A100 不是不准卖给咱们吗?  详情 回复 发表于 2024-5-13 13:53
 
 
 

回复

3239

帖子

0

TA的资源

五彩晶圆(中级)

6
 
wangerxian 发表于 2024-5-13 11:21 我自己跑ChatGPT,不用七位数吧,公司想买个ChatGPT服务器,最多也就六位数。

勉强能用很慢 和 比较流畅运行 的区别。

点评

这倒是,本地的估计慢,用CPU其实也能跑,只是超级无敌慢。  详情 回复 发表于 2024-5-13 14:17
 
 
 

回复

6108

帖子

4

TA的资源

版主

7
 
hellokitty_bean 发表于 2024-5-13 12:31 哦?看英伟达的GPU是哪一款的吧?也有7位数RMB的(10万刀的话,就快7位数了)

英伟达的A100 不是不准卖给咱们吗?

 
 
 

回复

7275

帖子

2

TA的资源

版主

8
 
nmg 发表于 2024-5-13 11:46 为何非要本地跑

想体验体验,搭建一个自己的ChatGPT呀。

 
 
 

回复

7275

帖子

2

TA的资源

版主

9
 
tagetage 发表于 2024-5-13 13:12 勉强能用很慢 和 比较流畅运行 的区别。

这倒是,本地的估计慢,用CPU其实也能跑,只是超级无敌慢。

 
 
 

回复

1万

帖子

141

TA的资源

版主

10
 

本地跑ChatGPT?如果不进行大模型训练,拿现成开源代码和数据库跑,根本无需多少资源,普通桌面平台都可以,高档显卡并非必须,新平台的整合显卡都足够。

至于说要训练,那还是洗洗睡吧,梦里要啥有啥……

点评

兄台说的对呀。。。。。。 梦里花落知多少,梦中啥都有,做梦做梦。。。  详情 回复 发表于 2024-5-14 18:22
就跑数据大模型数据。训练模型的话,也只能训练那种小AI模型。  详情 回复 发表于 2024-5-14 09:11
 
个人签名上传了一些书籍资料,也许有你想要的:https://download.eeworld.com.cn/user/chunyang
 
 

回复

7275

帖子

2

TA的资源

版主

11
 
chunyang 发表于 2024-5-13 14:32 本地跑ChatGPT?如果不进行大模型训练,拿现成开源代码和数据库跑,根本无需多少资源,普通桌面平台都可以 ...

就跑数据大模型数据。训练模型的话,也只能训练那种小AI模型。

点评

那根本无需什么高端显卡。很少用到GPU全部的性能,那根本不必买显卡,用AMD的ZEN平台,整合GPU的性能都已达到中端显卡的性能了。  详情 回复 发表于 2024-5-20 18:13
 
 
 

回复

6585

帖子

9

TA的资源

版主

12
 

GTX 1080 Ti或更高型号,感觉下线有点低啊,3060应该能跑

点评

好像还得看模型,跑ChatGPT大模型,3060应该够,可能会慢一些生成结果。  详情 回复 发表于 2024-5-14 13:06
 
个人签名

在爱好的道路上不断前进,在生活的迷雾中播撒光引

 
 

回复

7275

帖子

2

TA的资源

版主

13
 
秦天qintian0303 发表于 2024-5-14 09:41 GTX 1080 Ti或更高型号,感觉下线有点低啊,3060应该能跑

好像还得看模型,跑ChatGPT大模型,3060应该够,可能会慢一些生成结果。

 
 
 

回复

1392

帖子

1

TA的资源

五彩晶圆(初级)

14
 
chunyang 发表于 2024-5-13 14:32 本地跑ChatGPT?如果不进行大模型训练,拿现成开源代码和数据库跑,根本无需多少资源,普通桌面平台都可以 ...

兄台说的对呀。。。。。。

梦里花落知多少,梦中啥都有,做梦做梦。。。

 
 
 

回复

1万

帖子

141

TA的资源

版主

15
 
wangerxian 发表于 2024-5-14 09:11 就跑数据大模型数据。训练模型的话,也只能训练那种小AI模型。

那根本无需什么高端显卡。很少用到GPU全部的性能,那根本不必买显卡,用AMD的ZEN平台,整合GPU的性能都已达到中端显卡的性能了。

点评

我整了一个4070S,感觉应该够用,我还想跑本地语言识别模型呢~  详情 回复 发表于 2024-5-21 09:44
 
个人签名上传了一些书籍资料,也许有你想要的:https://download.eeworld.com.cn/user/chunyang
 
 

回复

7275

帖子

2

TA的资源

版主

16
 
chunyang 发表于 2024-5-20 18:13 那根本无需什么高端显卡。很少用到GPU全部的性能,那根本不必买显卡,用AMD的ZEN平台,整合GPU的性能都已 ...

我整了一个4070S,感觉应该够用,我还想跑本地语言识别模型呢~

 
 
 

回复
您需要登录后才可以回帖 登录 | 注册

随便看看
查找数据手册?

EEWorld Datasheet 技术支持

相关文章 更多>>
关闭
站长推荐上一条 1/8 下一条

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 国产芯 安防电子 汽车电子 手机便携 工业控制 家用电子 医疗电子 测试测量 网络通信 物联网

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2025 EEWORLD.com.cn, Inc. All rights reserved
快速回复 返回顶部 返回列表