5月24日,OpenBMB 携手 A.I Hub 在北京五道口 Metaspace Coffee 举办了大模型开发者线下沙龙,沙龙主题分享内容丰富,现场氛围热闹轻松,有不少同学为来不了现场感到遗憾。还记得我们之前预告大模型线下沙龙的时候,社区朋友们纷纷表示:
“请务必要搞录像!”
🤩录了!沙龙活动已经圆满完成,让我们带你回顾这场精彩的开源盛宴。
B站视频链接:https://www.bilibili.com/video/BV13h4y1G7U4/?spm_id_from=333.999.0.0&vd_source=cd29f4e20ef69babd26f4f34cc7c8b3f
OpenBMB 三大主题分享
—
▶︎ 刘知远: 人工智能的大模型时代
在沙龙主题分享环节,首先邀请到了清华大学计算机系刘知远老师为我们带来《人工智能的大模型时代》的主题分享。刘老师以 ChatGPT 对人工智能领域的冲击和引领引入分享。在 ChatGPT 出现之前,人工智能的技术范式主要为总结型理性主义和学习型经验主义。深度学习对高质量标注数据的依赖大大局限了模型的规模和性能。如今,新范式大模型“预训练-微调”的出现为人工智能的能力带来了革命性的改变,使用廉价易得的无标注数据不仅加强大模型的泛化能力,更能提升下游任务的广度和性能。刘老师总结了大模型的五大特性:
1. 可以通过优化小参数达到全参数微调效果,省时省力
2. 仅激活专业功能分区,进一步降低计算时间和资源
3. 大模型可以模仿用户行为,巧用高级认知工具
4. 拥有未来发展群体智能的潜力
▶︎ 丁宁: OpenBMB大模型系统——从训练到应用全流程解决方案
清华大学计算机系博士生、OpenBMB 开源社区的主要负责人、OpenPrompt 和 OpenDelta 的主要作者丁宁则全面介绍 OpenBMB 大模型系统的技术原理和应用场景,为开发者更好地使用大模型提供助力。在全球的科技巨头在模型研发的算力、芯片、算法还有数据等方面进行高强度暴力 PK,使普通人望而却步时,OpenBMB 注重于把大模型训练的各个版块的交互开发的简单易用,让大模型“飞入千万家”。在整套体系中,OpenBMB 开发了一个全面的工具框架。在上游数据层,使用 BMData 完成数据清洗和优化;在模型层使用我们自己研发的中文基座大模型 CPMBee;在下游训练层,OpenBMB 有全套工具包去完成模型训练(使用 BMTrain 和 BMCook),模型微调(使用 OpenPrompt 和 OpenDelta),模型推理(使用 BMInf 和 BMEngine)等步骤。其中,丁宁着重展示了 OpenPrompt 和 OpenDelta 的使用场景和能力。最后,丁宁为我们预告了 OpenBMB 现在已经全面开源的中文基座大模型 CPMBee,以及其优秀的中英文能力。
分享后,丁宁对有关插件对准确性的提升、CPM-Bee 模型应用场景、训练微调语料等方面的问题做出了回答。
▶︎ 秦禹嘉: 基础模型工具学习
最后,清华大学计算机系博士生、BMTools 和 WebCPM 的主要作者秦禹嘉分享讲解了基础模型工具学习。根据正确的指令,大模型可以将任务分段,再根据子问题特性去决定使用哪些工具来解决。开发者可以让大模型通过学习工具功能或使用流程来掌握工具使用方式、增强推理能力。其中他以搜索引擎和网上购物为例,向我们展示了 OpenBMB 研发的 CPM-Bee 大模型如何利用插件完成任务。之后介绍了近期比较热门的新工具,如 CahtGPT Plugins、LangChain 和 BabyAGI,还有 OpenBMB 近期研发开源的 BMTools 工具包和 AgentVerse 工具包。最后,秦禹嘉呼吁大家一起加入工具包的使用和建设中来,共同建设大模型的工具学习范式。
沙龙自由交流讨论
—
在主题分享结束后,OpenBMB 和 A.I HUB 分别建立了针对大模型应用和大模型创业的两个线上社群,OpenBMB 工作人员也向主题分享环节参与互动的朋友赠予了周边礼品。接着,参加沙龙的朋友们面对面地坐在了一起,进行了自由的深度讨论与交流。
OpenBMB 将持续为大模型开发者和对大模型感兴趣的朋友搭建交流平台,欢迎大家持续关注和参与。让我们一起践行开源精神,共建美好的大模型生态。
请找 OpenBMB 万能小助手:
https://www.openbmb.org
长期开放招聘|含实习
评论
沙发等你来抢