斯坦福开源机器人Vicuna继上次Vicuna权重几天后,继续发布了 Vicuna-7B:小巧、高效但功能强大。 MacBook 用户只需“pip install fschat”,即可在 M1 芯片上使用 GPU 加速运行 Vicuna-7B!
code:https://github.com/lm-sys/FastChat
weights:https://huggingface.co/lmsys/vicuna-7b-delta-v0
相关介绍:
Vicuna:一个以 90% ChatGPT 质量打动 GPT-4 的开源聊天机器人。
Vicuna-7b
此转换命令需要大约 30 GB 的 CPU RAM。
python3 -m fastchat.model.apply_delta \
--base /path/to/llama-7b \
--target /output/path/to/vicuna-7b \
--delta lmsys/vicuna-7b-delta-v0
Vicuna-13B
此转换命令需要大约 60 GB 的 CPU RAM。
python3 -m fastchat.model.apply_delta \
--base /path/to/llama-13b \
--target /output/path/to/vicuna-13b \
--delta lmsys/vicuna-13b-delta-v0
更多介绍:
Vicuna 模型卡
型号详情
模型类型: Vicuna 是一个开源聊天机器人,通过微调 LLaMA 对从 ShareGPT 收集的用户共享对话进行训练。它是一种基于转换器架构的自回归语言模型。
模型日期: Vicuna 在 2023 年 3 月至 2023 年 4 月之间接受训练。
开发模型的组织: Vicuna 团队成员来自加州大学伯克利分校、CMU、斯坦福大学和加州大学圣地亚哥分校。
有关更多信息的论文或资源: https: //vicuna.lmsys.org/
许可证: Apache 许可证 2.0
在哪里发送有关模型的问题或评论: https://github.com/lm-sys/FastChat/issues
有可能的使用
主要预期用途: Vicuna 的主要用途是研究大型语言模型和聊天机器人。
主要目标用户: 该模型的主要目标用户是自然语言处理、机器学习和人工智能领域的研究人员和爱好者。
训练数据集
从 ShareGPT.com 收集的 70K 对话。
评估数据集
通过创建一组 80 个不同的问题并利用 GPT-4 来判断模型输出,对模型质量进行了初步评估。有关详细信息,请参阅https://vicuna.lmsys.org/ 。
相关链接:
斯坦福开源机器人小羊驼Vicuna,130亿参数匹敌90%ChatGPT
https://hub.baai.ac.cn/view/25175
斯坦福「小羊驼」团队公布Vicuna权重
评论
沙发等你来抢