新智元报道  

编辑:编辑部
【新智元导读】发布不到1年,抖音「豆包」就已经火爆全网,成国内TOP 1 AIGC类应用,是名副其实的顶流。最近首次亮相的豆包模型家族,token价格更是卷到天际!主力模型0.0008元/千Tokens的价格更是卷疯了,直接比行业便宜99.3%。

大模型正以前所未有的速度重塑我们的工作和生活方式,人们期待大模型走向千行百业,为实际业务带来真正的价值提升。
据IDC发布《2024 AIGC应用层十大趋势白皮书》预测,2024年全球将涌现出超过5亿个新应用,相当于过去40年间出现的应用数总和,智能化应用将呈现爆发式增长。由此可见,应用层创新成为今年大模型产业发展的重要方向。
尽管国内AI应用层出不穷,但引起广泛热议的不算多,近期抖音旗下AI应用工具「豆包」火爆全网:据Quest Mobile《2024中国移动互联网春季大报告》数据显示,截止到2024年3月,豆包月活用户为2328.2万,在AIGC类应用中排名第一。
今年4月,豆包在苹果中国区App Store效率榜排名第一,综合1-4月数据来看,豆包在AIGC类应用排名最高。安卓市场累计下载量1.37亿,在AIGC类应用中大幅领先。
不少年轻人开始在工作和生活中「遇事不决,就问豆包」,去年8月发布的豆包凭什么成为AI应用「顶流」?小编赶紧体验一波。

AI应用「顶流」,豆包如何出圈

端午小长假快要到来,小编摩拳擦掌开始准备做出行计划了,先考考豆包的搜索能力:
豆包一边返回文字结果,一边语音播放出来,相比传统搜索引擎返回的网页链接,豆包综合抖音、头条和其他平台的内容,帮我们总结和筛选出关键信息点,并贴心给出相关视频、文章的源链接,使搜索结果更加丰富多元,尤其适用于喜欢通过视频或短资讯获取信息的用户。
我们在学习工作中,常常需要查阅论文。例如读一篇47页的英文顶会论文,我们可能要花费半天甚至更长时间才能读完。现在只需将PDF发给豆包,它不仅几秒读完,还善解人意用中文来概括输出:
豆包支持的文档类型多样,Word、PDF、PPT、Excel等多种格式文件和网页链接都不在话下。
看来有了豆包,「AI帮我打工」不再是梦想。
豆包在搜索、阅读分析、创作上均表现不俗,可以满足日常工作的一部分工作,当我们遇事不决,真可以找豆包。
与其他产品相比,豆包的语音功能十分好用,我们可以全程使用语音来和豆包对话。
豆包就像一位亲密的AI朋友,语气轻松亲切,还可以发表情包。甚至可以选择不同的声音,或者克隆自己的声音来「捏」一个专属的AI朋友,让冰冷的AI工具生动起来。
语音功能有效降低人们使用AI应用的门槛,用户可能不懂什么是大模型、AI技术,但随时随地打开豆包,简单对话就能解决一些工作、生活的小问题,难怪豆包火爆出圈了。
假如你想个性化定制属于自己的智能体,不妨打开AI大模型智能体开发平台——扣子。
扣子是「无代码」AI Bot机器人构建平台,即使用户不懂编程知识,零基础也能轻松制作各种AI Bot应用,还可将Bot应用发布到商店,同步到豆包、飞书、微信客服、微信公众号等平台给大家使用。
扣子集成超过一万款插件,通过API连接集成各种平台和服务,当然,你还可自定义插件来扩展Bot能力。
值得一提的是,扣子通过工作流来处理逻辑复杂、有较高稳定性要求的任务流,相当于给机器人添加专属技能完成专项工作了。
用户可以利用扣子的知识库功能上传并存储大量数据,让机器人能更快地处理大量信息。数据库具备持久化记忆功能,方便机器人预判用户需求。
今年初,OpenAI推出GPT Store,标志着AI大模型领域的「App Store」时刻的到来,目前GPT Store已创建超过300万个GPTs。
但扣子生态更开放,OpenAI将所有GPTs放在自家平台,而扣子允许用户分享到豆包、微信、飞书等平台,与这些平台协同效应,有利于生态发展。
扣子极大地简化了创建Bot的过程,让每个人都能成为AI应用创造者。正如前文所说,预测2024年全球将涌现出超过5亿个新应用,如果靠技术人员肯定是不够的,扣子提供「无代码」创建应用的方式,大大降低创新门槛,加快全民开发者时代的到来。
在2024春季火山引擎FORCE原动力大会上,火山引擎正式推出扣子专业版,帮助企业和开发者更好地定制化智能体。

豆包模型家族首次亮相

豆包、扣子的背后离不开强大的技术底座——豆包大模型(曾用名「云雀」)。
2023年8月,字节跳动发布旗下首个基于Transformer架构的豆包大模型,可通过便捷的自然语言交互,能够高效完成互动对话、信息获取、协助创作等任务。
在2024春季火山引擎FORCE原动力大会上,重磅发布豆包系列模型家族,涵盖豆包·通用模型pro、豆包·通用模型lite、豆包·角色扮演模型、豆包·语音合成大模型、豆包·语音识别大模型、豆包·Function call模型、豆包·声音复刻模型、豆包·文生图模型、豆包·向量化模型等一系列模型,以覆盖更多应用需求。

豆包大模型
一直以来,字节在自研大模型上保持低调。在团队上,字节先是在2023年初部署了「Seed」项目,专注于模型层的研发。该项目是高优先级且高保密度的任务,员工需要签署保密协议。其目标是最终建立通用人工智能,几个月后,豆包大模型正式推出。
随后整合内部大模型团队和业务小组,正式成立专注AI大模型应用层的「Flow」部门。半年的时间里,推出多款AI应用,如豆包、扣子、猫箱(曾用名话炉)、星绘等。
这些产品目前发展强劲,为何字节选择在此时发布豆包系列模型家族?
从同类产品海内外不同的发布时间我们可以管窥一斑:基于GPT的海外版Coze于2023年底上线,基于豆包大模型的国内版「扣子」晚了两个月才上线。有开发者在体验两个版本时,为了可以使用GPT-4,会优先选择海外版。说明大模型不够成熟的话,有可能会影响应用的落地。
字节不断加大对大模型的投入,从字节招聘官网等处放出的一些岗位能看出,豆包大模型团队正在寻找相关高潜技术人才;同时加快模型研发速度,本次发布的豆包系列模型家族,显然经历了豆包、扣子、猫箱等大规模用户的真实锤炼,才正式推出。
通过大量用户的使用和反馈,豆包模型不断迭代,不断提高模型预测和决策的准确性,来满足多样化的用户需求,也能提升模型安全性,降低内容风险。
经过一年时间的迭代和市场验证,豆包大模型正成为国内使用量最大、应用场景最丰富的大模型之一,目前日均处理1200亿tokens文本,生成3000万张图片。
目前,豆包系列模型已用于豆包App、扣子、河马爱学、飞书智能伙伴、抖音电商、剪映、番茄小说等字节跳动旗下产品及业务,并通过火山方舟向智能终端、汽车、金融、消费等行业客户提供服务,与极氪汽车、奇瑞捷途、吉祥汽车、小米、三星、华硕、OPPO、招商银行、海尔消金、百胜中国、海底捞火锅、蒙牛等企业客户合作共创。
本次大会上还官宣重磅消息:豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。
以豆包通用模型pro-32k版为例,模型推理输入价格仅为0.0008元/千Tokens。而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。

火山引擎总裁谭待公布豆包大模型定价
根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
这波操作简直让行业卷出新高度,要知道GPT-4 Turbo 1000输入tokens为0.01美元,1000输出tokens价格为0.03美元(要是折合人民币还得乘以7)。
为啥搞这么卷?
对于企业客户而言,模型的调用成本是关键的考虑因子。低价将吸引更多企业使用AI大模型来提高生产效率,以最经济的成本来快速验证产品,从而优化产品和服务,加快商业化落地,加快AI普惠化,加速千行百业的智能化转型实践,共享大模型时代的技术红利。

创新技术底座,火山方舟2.0启航

当前,人们期待大模型走向各行各业,为业务带来实际的价值提升,探索如何用AI实现降本增效,打造差异化优势,以提升企业竞争力。然而在实际操作中,如何让大模型在企业实现真正的落地,成为企业数字化转型的重要力量?企业遇到不少难题:
首先,市面上模型种类众多,然而很多大模型在追求强大的通用能力,然而通用不代表能完全满足特定场景的需求,缺少对专业领域深刻理解的话,可能无法有效应用到企业的实际生产中,如何将大模型与自身业务更好做适配?
其次,模型成本难控制。缺少充足且弹性的算力资源,无法保障模型训练和精调效果。一些业务具有周期性,算力需求不同,如果没有弹性资源支持,企业难以在成本控制和业务需求之间找到平衡。
最关键的是无法确保模型的安全性与合规性。由于通用大模型不是本地部署,企业在云端使用大模型服务时,尤为关注其数据安全和合规。
以上问题导致一些企业既向往又担忧使用大模型,一方面,企业被大模型的潜力所吸引,期待其能驱动创新、优化业务流程、提升竞争力;另一方面,他们又担忧大模型的高成本、技术门槛、合规风险等,害怕投入巨大却收效甚微,甚至带来负面影响。
去年,火山引擎发布大模型服务平台「火山方舟」,面向企业提供模型精调、评测、推理等全方位的平台服务,并集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等多家AI科技公司及科研团队的大模型。
火山方舟通过提供「大模型商店」的模式,来连接模型供需两方。比如模型使用者可通过火山方舟接触各优质模型,并「货比三家」来灵活选择模型,降低大模型的使用门槛。
此外,火山方舟提供丰富的模型精调和评测支持,帮助企业降低大模型的推理成本,还可结合业务场景来选择更有性价比的模型。又如对于模型供方通过火山方舟,接触到更广泛的行业需求,提高迭代速度,打造更好的产品。
针对安全问题,火山方舟首创安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现对模型的机密性、完整性和可用性保证,为大模型使用者、提供者和云平台可以互相信任的安全保障。
在本次大会上,火山方舟发布2.0版本,打造三层产品架构:平台能力、模型组合和智能体,将一站式模型落地能力升级,更易于企业使用。
  • 在平台性能上,提升系统承载力,例如让所有精调模型更快推理,5分钟2000+台节点的接入点启动速度;
  • 提供海量资源,万卡公有云GPU资源池;
  • 提升运维体验,增强安全性。打造更全面的智能体生产工具,发布扣子专业版,让技术人员、非技术人员更便捷使用。
值得一提的是,火山方舟2.0提供三大插件服务:
  • 联网搜索插件,作为业内首家多模态联网组件(头条联网、抖音多态搜索),可结合实时热点给用户更即时的服务。

  • 内容插件,精选的抖音集团系智能内容,覆盖抖音80%PV+自定义内容。

  • RAG知识库,内置字节跳动多年实践沉淀的大规模高性能向量检索能力,百亿级别数据可以实现毫秒级检索,支持秒级索引流式更新,可以实现新增数据能够实时被检索到,知识库插件也内置了豆包向量化模型,可以给用户提供更好的搜索相关性。

这几个插件是不是有些超纲?
要知道,大模型联网能力是AI发展的重要趋势,意味模型能访问互联网的实时数据,而不局限于其训练时的静态数据集,模型可提供更即时、更准确的信息和服务。另外,火山方舟持续与模型提供方合作,上线优质模型,例如2.0上线月之暗面和智谱最新模型,给企业提供更丰富的模型选择。
值得一提的是,扣子专业版已集成在火山引擎的大模型服务平台「火山方舟」上,提供企业级SLA和高级特性。招商银行、海底捞火锅、超级猩猩、猎聘等企业,已在扣子上搭建了智能体。复旦大学、浙江大学等名校也为课程和实验搭建AI「助教」。

火山引擎,加快企业数智化转型

从豆包系列大模型家族的发布到火山方舟2.0升级,火山引擎正通过提供全栈的模型服务,帮助企业构建高质量AI应用,加速大模型应用落地,帮助企业持续创新,激发增长潜能。
有大模型技术做奠基,有热门应用落地,为进一步普惠AI,火山引擎的下一步瞄准「生态」。目前,火山引擎正携手汽车、手机终端、金融、消费、互联网等不同领域的合作伙伴共建共创。
当天,火山引擎联合中国电动汽车百人会,与吉利汽车、长城汽车、捷途汽车、赛力斯、智己汽车等20余家厂商,宣布成立汽车大模型生态联盟,致力于为消费者带来汽车全场景AI新体验。同时,火山引擎与OPPO、vivo、荣耀、小米、三星、华硕宣布成立智能终端大模型联盟。OPPO小布助手、荣耀MagicBook的YOYO助理、小米「小爱同学」,以及华硕笔记本电脑的豆叮AI助手等应用,均已接入火山引擎的大模型服务。
同时为了赋能更多企业和开发者,火山引擎通过万有计划推出豆包企服联盟,旨在通过火山引擎AI及大模型能力和扶持权益支持,助力企业找到业务新增长点,加快大模型的落地。
大模型时代,新技术催生新机遇,拥抱变化者先行。火山引擎拥有AI时代坚实的云基础设施,对大模型始终保持开放的态度,正助力各行各业落地大模型,加速企业数智化升级。
参考资料:
https://www.doubao.com/chat/