Llama 2: Open Foundation and Fine-Tuned Chat Models

Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, Thomas Scialom

[Meta AI]

Llama 2: 开放基础和微调聊天模型

开发和发布Llama 2,一系列预训练和微调的大型语言模型(LLM),旨在提高对话应用的性能,并为LLM的负责任发展做出贡献。

  • 方法:通过微调和安全改进Llama 2-Chat来优化对话使用情景下的性能,并提供了详细的方法和技术描述,使社区能够在此基础上进行研究和贡献。
  • 优势:Llama 2-Chat模型在大多数基准测试中优于开源聊天模型,根据人类评估的帮助性和安全性,可能是封闭源模型的合适替代品。

介绍Llama 2,一系列预训练和微调的模型,通过优化对话使用情景下的性能,超越了开源聊天模型,并为LLM的负责任发展做出贡献。

https://arxiv.org/abs/2307.09288 


图片
图片

内容中包含的图片若涉及版权问题,请及时与我们联系删除