8月16日,昆仑芯在Wave Summit 2023深度学习开发者大会上正式宣布与百度联合发起飞桨+文心大模型硬件生态共创计划。双方将强强联合,进一步推进在昆仑芯硬件上与飞桨+文心大模型的适配。
飞桨+文心大模型硬件生态共创计划发布仪式
昆仑芯和飞桨的适配自2018年启动。2019年,昆仑芯进入飞桨社区(Paddle Lite)。随着双方产品的不断成熟,2020年“昆仑芯+飞桨”方案实现了小流量上线,同年,飞桨框架v2.0RC发布,可支持昆仑芯训练。2021年,昆仑芯与飞桨共同实现了实时在线推理服务、超大规模部署。2022年,昆仑芯加入飞桨“硬件生态共创计划”,双方共同完成了III级适配,兼容性测试完成了51个模型[1]的验证,覆盖计算机视觉、自然语言处理、智能语音、智能推荐、强化学习共5个技术领域。
基于双方的深度适配,在一些场景下能够做到仅切换一行代码便可指定到昆仑芯XPU的后端,低成本地从GPU切换到昆仑芯,进一步降低迁移成本和算力成本。
今年,昆仑芯与飞桨的生态合作再度升级,昆仑芯已入驻飞桨AI Studio硬件生态专区(https://aistudio.baidu.com/cooperate/Kunlunxin/1),并联合百度发起飞桨+文心大模型硬件生态共创计划,持续完善大模型硬件底层的开发环境。
从底层AI算力组件到AI服务器,再到操作系统,进一步到昆仑芯SDK,四年来,昆仑芯和飞桨携手共同完成了一套端到端的AI计算系统解决方案,并致力于携手打造一个全栈式软硬一体的AI生态。目前,“昆仑芯+飞桨”方案已在智慧金融、工业质检等领域成功部署落地,帮助客户降本增效,加速千行百业智能化升级。
此次昆仑芯与百度联合发起飞桨+文心大模型硬件生态共创计划,将充分发挥昆仑芯高性能产品力、完备生态、落地成果丰富等优势,夯实大模型时代的算力基础设施建设。
昆仑芯政企/智算中心业务总经理徐臻表示:“未来,昆仑芯将进一步和百度飞桨等上下游伙伴加强协同,提升软硬件创新能力,积极推进产品适配,以端到端解决方案助力大模型切实发挥产业价值,共拓AI‘芯’生态。”
昆仑芯政企/智算中心业务总经理 徐臻
本次大会上,徐臻带来了“昆仑芯x飞桨:端到端优化,打造大模型时代AI‘芯’势力”主题分享。他表示,大模型正加速迭代,并向通用底座大模型的趋势发展,对AI芯片的算力、内存、互联带宽提出更高要求。昆仑芯凭借领先性能优势赋能大模型生产和部署的各个环节,并积极与飞桨进行深度适配,打造针对不同参数量级的端到端解决方案,助力大模型在能源、工业等行业的应用落地。
当前,超级AI算力+大模型算法正在成为国家和产业战略核心竞争力,昆仑芯与飞桨+文心大模型将持续携手,聚生态之力,共同打造软硬一体的人工智能大模型平台,促进人工智能产业链高质量发展。
关于昆仑芯
昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。
秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
百度飞桨+文心大模型介绍
飞桨(PaddlePaddle)是百度自主研发的中国首个开源开放、功能丰富的产业级深度学习平台,以百度多年的深度学习技术研究和业务应用为基础,集核心框架、基础模型库、端到端开发套件、丰富的工具组件、学习与实训社区于一体。飞桨在业内率先实现了动静统一的框架设计,兼顾科研和产业需求,在开发便捷的深度学习框架、大规模分布式训练、高性能推理引擎、产业级模型库等技术上处于国际领先水平。飞桨是百度“芯片-框架-模型-应用”全栈技术布局的重要组成部分,与芯片层深度适配与融合优化,并高效支撑以文心一言为代表的文心大模型的生产与应用。当前飞桨已凝聚800万开发者,广泛服务于金融、能源、制造、交通等领域,稳居中国深度学习平台市场综合份额第一。
百度文心大模型源于产业、服务于产业,是产业级知识增强大模型。百度通过大模型与国产深度学习框架融合发展,打造了自主创新的AI底座,大幅降低了AI开发和应用的门槛,满足真实场景中的应用需求,真正发挥大模型驱动AI规模化应用的产业价值。文心大模型的一大特色是“知识增强”,即引入知识图谱,将数据与知识融合,提升了学习效率及可解释性。文心ERNIE自2019年诞生至今,在语言理解、文本生成、跨模态语义理解等领域取得多项技术突破,在公开权威语义评测中斩获了十余项世界冠军。2020年,文心ERNIE荣获世界人工智能大会WAIC最高奖项SAIL奖。2022年11月,文心大模型进一步升级,包括新增11个大模型,构建起业界规模最大的产业大模型体系,并通过大模型工具与平台的升级和文心一格、文心百中等基于大模型技术的产品应用,进一步降低大模型产业化门槛,让更多企业和开发者步入AI应用的新阶段。
文心大模型3.5版本的效果、功能、性能全面提升,实现了基础模型升级、精调技术创新、知识点增强、逻辑推理增强等,得益于飞桨深度学习平台与文心大模型的协同优化,飞桨支撑文心效果更好、效率更高、应用更广。
[1]飞桨与昆仑芯2代芯片支持的模型列表:https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/guides/hardware_support/xpu_docs/paddle_2.0_xpu2_cn.html
推荐阅读
点击“阅读原文”
一键跳转飞桨AI Studio 昆仑芯专区
评论
沙发等你来抢