Compact114 发表于 2023-3-6 16:38:05

有人知道怎么玩LLaMA吗?

本帖最后由 Compact114 于 2023-3-6 17:07 编辑

LLaMA,就是那个脸书(Meta)版ChatGPT
它一共有四种模型大小,7B、13B、30B、65B(这里的多少多少B,好像是模型内部的参数条数——7B就是7 billion,70亿参数;65B就是650亿参数)
听说性能需求很少,“4卡能跑30B,8卡能耍65B”(更小的模型,算力需求应该会少不小吧?)
刚刚下到电脑上,不知道咋用


(是的,我知道这是字幕论坛,然而VCB的意思是显卡吧视频工作室)
(那就是说,有一部分论坛用户,拥有很好的显卡——所以,你们难道不想van♂van♂这些语言模型嘛)(doge)

LLaMA磁力链接:
magnet:?xt=urn:btih:cdee3052d85c697b84f4c1192f43a2276c0daea0&dn=LLaMA&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce







Compact114 发表于 2023-3-6 17:21:45

如图所示,7B的LLaMA没准有点大病

来源:Huggingface托管的7B版LLaMA
https://huggingface.co/spaces/chansung/LLaMA-7B

Compact114 发表于 2023-3-6 17:27:55

本帖最后由 Compact114 于 2023-3-6 17:29 编辑

虽说VCB就没做过紫罗兰永恒花园,但是你看,ChatGPT这回答看着就正常许多
页: [1]
查看完整版本: 有人知道怎么玩LLaMA吗?