首页 动态 > 正文

头条:6G显存玩转130亿参数大模型 RTX 2060用户发来贺电 AMD不配吗?

2023-05-19 18:06:59 来源: 分享到:

Meta的大语言模型LLaMA 13B,现在用2060就能跑了~

羊驼家族的Alpaca和Vicuna也都能运行,显存最低只需要6G,简直是低VRAM用户的福音有木有。

GitHub上的搭建教程火了之后,网友们纷纷跑来问苹果M2是不是也能跑。


(资料图片仅供参考)

这通操作的大致原理是利用最新版CUDA,可以将Transformer中任意数量的层放在GPU上运行。

与此前llama.cpp项目完全运行在CPU相比,用GPU替代一半的CPU可以将效率提高将近2倍。

而如果纯用GPU,这一数字将变成6倍。

网友实测的结果中,使用CPU每秒能跑2.1个token,而用GPU能跑3.2个。

生成的内容上,开发者成功用它跑出了“尼采文学”。

如何操作在开始搭建之前,我们需要先申请获得LLaMA的访问权限。

传送门:https://ai.facebook.com/blog/large-language-model-llama-meta-ai/

此外还需要有一个Linux环境。(Windows用户可以用WSL2)

准备工作完成之后,第一步是将llama.cpp克隆到本地。

如果没有安装CUDA,可以参考下面的步骤:

然后是建立micromamba环境,安装Python和PyTorch等工具。

接着需要在micromamba环境下安装一些包:

然后运行Python脚本以执行转换过程:

之后将其量化为4bit模式。

接着是新建一个txt文本文档,把提示词输入进去,然后就可以运行了。

这步当中-ngl后面的数字是可以修改的,它代表了转换层的数量。

当该值为18时,运行中消耗的VRAM为5.5GB,根据显存的大小最高可以调至40。

网友:AMD不配吗

这一教程出现之后,网友们的新玩具又增加了。

“苦OpenAI久矣”的网友更是感觉仿佛找到了光。

这位网友就表示自己太期待在自己的设备上运行LLM了,宁愿花5千美元购置设备也不想给OpenAI交一分钱。

但AMD用户可能就不那么兴奋了,甚至透露出了嫉妒之情。

这套方法要用到CUDA(英伟达专用),所以AMD是不配了吗?

那么,你期待用自己的设备跑大语言模型吗?

关键词:

x 广告

乐高集团旗下超百款产品涨价 消费者对涨价表现得并不十分敏感

8月1日,乐高集团旗下超百款产品涨价,涨幅最高达到25%;而7月31日,TOP TOY宣布全线降价,欲打破高品质积木价格壁垒。一涨一跌背后,是本

4.2万余名残疾人有了专属辅助器具

市残联辅助器具中心为我提供的这辆轮椅,可以躺可以坐,时间长也不太累。由于交通事故导致高位截瘫,张家口市桥东区重度肢体残疾人边海卧病

大庆航空救援支队张家口驻防队伍圆满完成任务

近日,在跨省驻防460余天,圆满完成北京2022年冬奥会和冬残奥会张家口赛区森林防灭火、应急救援等安保任务后,大庆航空救援支队张家口驻防

张家口宣化区不动产登记中心全面提升登记服务工作效率

在工作人员的指引下,半个小时就办完了,没想到这么方便。近日,在宣化区不动产登记中心,前来办理房屋抵押手续的市民孙淑苗高兴地对记者说

助力重点群体稳定就业 张家口开展“春风行动”网络招聘活动

为保障企业用工需求,助力重点群体稳定就业,今年以来,张家口市人社部门联合工信、民政等部门在全市范围内组织开展春风行动网络招聘活动。

x 广告

Copyright   2015-2022 东方地质网  版权所有  备案号:沪ICP备2020036824号-8   联系邮箱:562 66 29@qq.com