斯坦福开源机器人Vicuna继上次Vicuna权重几天后,继续发布了 Vicuna-7B:小巧、高效但功能强大。  MacBook 用户只需“pip install fschat”,即可在 M1 芯片上使用 GPU 加速运行 Vicuna-7B!

code:https://github.com/lm-sys/FastChat

weights:https://huggingface.co/lmsys/vicuna-7b-delta-v0

相关介绍:

Vicuna:一个以 90% ChatGPT 质量打动 GPT-4 的开源聊天机器人

Vicuna-7b

此转换命令需要大约 30 GB 的 CPU RAM。

python3 -m fastchat.model.apply_delta \
--base /path/to/llama-7b \
--target /output/path/to/vicuna-7b \
--delta lmsys/vicuna-7b-delta-v0

Vicuna-13B

此转换命令需要大约 60 GB 的 CPU RAM。

python3 -m fastchat.model.apply_delta \
--base /path/to/llama-13b \
--target /output/path/to/vicuna-13b \
--delta lmsys/vicuna-13b-delta-v0

更多介绍:

Vicuna 模型卡

型号详情

模型类型: Vicuna 是一个开源聊天机器人,通过微调 LLaMA 对从 ShareGPT 收集的用户共享对话进行训练。它是一种基于转换器架构的自回归语言模型。

模型日期: Vicuna 在 2023 年 3 月至 2023 年 4 月之间接受训练。

开发模型的组织: Vicuna 团队成员来自加州大学伯克利分校、CMU、斯坦福大学和加州大学圣地亚哥分校。

有关更多信息的论文或资源: https: //vicuna.lmsys.org/

许可证: Apache 许可证 2.0

在哪里发送有关模型的问题或评论: https://github.com/lm-sys/FastChat/issues

有可能的使用

主要预期用途: Vicuna 的主要用途是研究大型语言模型和聊天机器人。

主要目标用户: 该模型的主要目标用户是自然语言处理、机器学习和人工智能领域的研究人员和爱好者。

训练数据集

从 ShareGPT.com 收集的 70K 对话。

评估数据集

通过创建一组 80 个不同的问题并利用 GPT-4 来判断模型输出,对模型质量进行了初步评估。有关详细信息,请参阅https://vicuna.lmsys.org/ 。

 

相关链接:

斯坦福开源机器人小羊驼Vicuna,130亿参数匹敌90%ChatGPT

https://hub.baai.ac.cn/view/25175

斯坦福「小羊驼」团队公布Vicuna权重

https://hub.baai.ac.cn/view/25270