Meta最新开源了Llama 2模型,完全可商用,看来Meta势必要与OpenAI (ClosedAI) 硬刚到底。虽然Llama 2对原版的LlaMA模型做了升级,但是其仍然对中文没有太好的支持,需要在中文上做定制化。所以我们决定在次开展Llama 2的中文汉化工作:

Chinese-LlaMA2: 对Llama 2进行中文预训练;

第一步:先在42G中文预料上进行训练;后续将会加大训练规模Chinese-LlaMA2-chat: 对Chinese-LlaMA2进行指令微调和多轮对话微调,以适应各种应用场景和多轮对话交互。

为了遵循相应的许可,我们将不会发布完整的模型权重,只发布LoRA权重,其与Meta的LlaMA2权重合并即可形成Chinese-LlaMA2模型。

同时,我们将会围绕Chinese-LlaMA2打造各种垂直领域模型:

Chinese-LlaMA2-chatmed: Chinese-LlaMA2医学领域大模型,支持多轮在线问诊;

Chinese-LlaMA2-tcm: Chinese-LlaMA2中医药大模型,专注于中医药细分领域,赋能中医药传承

资源地址:https://github.com/michael-wzhu/Chinese-LlaMA2 

本项目由华东师范大学计算机科学与技术学院智能知识管理与服务团队完成,团队指导老师为王晓玲教授。

内容中包含的图片若涉及版权问题,请及时与我们联系删除