6G显存玩转130亿参数大模型 RTX 2060用户发来贺电 AMD不配吗?
导读:Meta的大语言模型LLaMA ...
Meta的大语言模型LLaMA 13B,现在用2060就能跑了~
羊驼家族的Alpaca和Vicuna也都能运行,显存最低只需要6G,简直是低VRAM用户的福音有木有。
GitHub上的搭建教程火了之后,网友们纷纷跑来问苹果M2是不是也能跑。
这通操作的大致原理是利用最新版CUDA,可以将Transformer中任意数量的层放在GPU上运行。
与此前llama.cpp项目完全运行在CPU相比,用GPU替代一半的CPU可以将效率提高将近2倍。
而如果纯用GPU,这一数字将变成6倍。
网友实测的结果中,使用CPU每秒能跑2.1个token,而用GPU能跑3.2个。
生成的内容上,开发者成功用它跑出了“尼采文学”。
如何操作在开始搭建之前,我们需要先申请获得LLaMA的访问权限。
传送门:https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
此外还需要有一个Linux环境。(Windows用户可以用WSL2)
准备工作完成之后,第一步是将llama.cpp克隆到本地。
如果没有安装CUDA,可以参考下面的步骤:
然后是建立micromamba环境,安装Python和PyTorch等工具。
接着需要在micromamba环境下安装一些包:
然后运行Python脚本以执行转换过程:
之后将其量化为4bit模式。
接着是新建一个txt文本文档,把提示词输入进去,然后就可以运行了。
这步当中-ngl后面的数字是可以修改的,它代表了转换层的数量。
当该值为18时,运行中消耗的VRAM为5.5GB,根据显存的大小最高可以调至40。
网友:AMD不配吗
这一教程出现之后,网友们的新玩具又增加了。
“苦OpenAI久矣”的网友更是感觉仿佛找到了光。
这位网友就表示自己太期待在自己的设备上运行LLM了,宁愿花5千美元购置设备也不想给OpenAI交一分钱。
但AMD用户可能就不那么兴奋了,甚至透露出了嫉妒之情。
这套方法要用到CUDA(英伟达专用),所以AMD是不配了吗?
那么,你期待用自己的设备跑大语言模型吗?
现货资源
品名 | 规格 | 材质 | 厂家 | 地区仓库 | 价格 | 现货 |
---|---|---|---|---|---|---|
螺纹钢 | 12-32 | HRB400E | 长治市创发商贸有限公司 | 首钢长钢(首钢长钢) | 0 | 详情 |
热轧卷板 | 15.50×1500 | Q235B | 宁夏祥合明贸易有限公司 | 包钢(银川市西夏区) | 0 | 详情 |
普碳中板 | 14 | Q235B | 唐山沐翌供应链有限公司 | 唐钢(金秋港) | 0 | 详情 |
低合金板 | 60 | Q355D | 安阳市润兴商贸有限公司 | 安钢(中拓物流) | 0 | 详情 |
无缝管 | 12*2 | 20# | 山东东银金属材料有限公司 | 聊城精密(东银库) | 5700 | 详情 |
圆钢 | 180 | 45# | 山东全优钢铁销售有限公司 | 本钢(中冶室内库) | 5080 | 详情 |
热轧卷 | 11.8*1500*C | 510L | 上海宏微钢铁贸易有限公司 | 日照(兴晟3号库) | 3600 | 详情 |
高线 | 6、8、10 | 300E | 兰州清琦物资有限公司 | 酒钢宁钢兰鑫(厂发库提) | 0 | 详情 |
相关新闻
推荐文章
-
建材预测:跌势不止,今日钢价怎么走?
多地相出下调首付比例等利多地产政策,但新房销售额提升仍不明显,地产政策对钢材需求提振需进一步观察,目前为钢材传统需求淡季,宏观暂无重大利好。
-
亏损加剧!同比少2.5万亿!钢价又要反复?
特别关注央行:前五个月人民币贷款增加11.14万亿元。分部门看,住户贷款增加8891亿元,其中,中长期贷款增加8598亿元;企(事)业单位贷款...
-
建材预测:累降50!钢价来回拉扯!下周走势如何?
本周20mmHRB400E螺纹钢全国均价3691元/吨跌30,美联储降息预期延迟,国内宏观暂无明显向上推动;产业端建材库存增加、表需下降,基本面偏弱。