相信大家都已经下载了 LLaMA 的模型来玩了,我今天也玩了一下,效果其实和想象的差很多。
运行环境:
GPU: RTX 4090
Weight: LLaMA-7B
在默认 FP16 下运行,会占用 22GB 左右的显存
总结:英文补全勉强能看,但好像还是挺差的,中文补全直接胡言乱语,和 GPT-3 相距甚远,可能还要作为模型基础继续针对训练,对普通用户来说基本没什么可用性
热议
2楼 5700pgf 昨天18:36
下不动,更关键是没卡。。。。
3楼 ByteCat 昨天18:52
下不动,更关键是没卡。。。。
下载还好吧,我用qb直接跑满带宽了,主要是效果有点拉,而且有点烧钱,我用 4090 的24G才跑动最小的7B模型……
4楼 小旭 昨天18:52
人家烧掉上百亿才出现目前的程度 而且每天还在增加 自己玩儿根本不行 除非数据全部拿到
5楼 WZ-Software 昨天18:53
下不动,老哥能传一份网盘分流一下吗
6楼 5700pgf 昨天19:27
下载还好吧,我用qb直接跑满带宽了,主要是效果有点拉,而且有点烧钱,我用 4090 的24G才跑动最小的7B模 ...
好像是有这个问题,QB可以下,ARIA2下不动,之前我有看到别人这样说
7楼 CJ大牛赚美元 昨天19:49
怎么运行啊,求教程啊老哥??
8楼 52naiba 昨天19:54
gpt好像170多PB的数据,
9楼 colla 昨天21:11
效果好的肯定不会放出来
10楼 antbt 1小时前
想达到GPT的效果,家里没矿就别想了;人家把算法和训练模型给你,你也运行不起来
申明:本文内容由网友收集分享,仅供学习参考使用。如文中内容侵犯到您的利益,请在文章下方留言,本站会第一时间进行处理。