这些更新带来什么影响

价格制约更长上下文带来的影响

Davanci 的价格是0.02美元/1000token(约750英文单词,500汉字

GPT-4 8K版本输入端(问题+提示+上下文)0.03美元,生成端(回答)0.06美元,小幅涨价

GPT-4 32K版本,输入端0.06美元,生成端0.12美元!

而3月1日发布的ChatGPT-turbo 0.002美元……

所以长文本的使用场景可能暂时不会突破到搜索、垂直领域问答、论文阅读等领域,价格飚太高了实在。

但他会杀入高价值的且逻辑复杂的场景,我目前暂时能想到的就是医学文本、金融文本、法律文本的理解整理、分析。

如果你只是用它写写营销文案、周报,还是乖乖用ChatGPT-turbo吧。

多模态带来的应用冲击

前文是一个极具震撼的例子(基于一张图直接生成网页代码)

我随口还可以举N个例子:

做一个给盲人用的APP,取代以前的盲人交互模式(震动+按键朗读)

取代OCR,做基于图片的阅读理解(OCR技术暴风哭泣)

阅读动漫,生成同人小说

聊天中的表情包理解,强化情感体验

我现在熬夜,脑子转不过来,相信屏幕前的你肯定还有更牛逼的想法,总之!牛逼

但是切记牢记,LLM是真正理解图像,不要用以前那种图转文的视角去看待他,否则你会错过很多应用层的机会。

——不过,OpenAI目前还未开放图片输入,他还在和他的合作伙伴做内测,所以哈哈,也不用太焦虑。

多模态对交互端的冲击

我之前和一个朋友聊多模态的趋势,他不以为然,说不如聊点接地气的。

我这里第N次重申,多模态对目前所有的交互端的改变都是非常非常非常强烈的!例如微软所说——如果你体验过新版的Edge浏览器,那你就已经体验过GPT-4了。

在目前所有的交互端,包括PC、手机、车载屏、智慧大屏、音箱、手表、VR等,都会因为多模态LLM迎来全新的变革。

目前我们看不到的核心原因在于

第一,国内LLM都还没上线,而手机厂商、语音音箱等往往是二线厂,目前都处于不甘心要自研的阶段,即使头部云厂商(如百度)做出来了也不一定会马上用。

第二,国外更是如此,主流的安卓系(Google),苹果都不会甘心向微软系低头认输。

所以我们现在暂时只看到PC端 Windows的变化,但是很快,在今年内,所有交互端都会陆续发生改变。

我不是在写科幻小说,这是真的、马上、即将要发生的未来!

站队开始

我提交了GPT-4的waitlist,不过毫不期待。

OpenAI的 GPT-4不会再大面积免费开放了(付费ChatGPTPro可用),他们已经通过ChatGPT获得了足够的数据(这些数据重点在于——用户到底会有些什么奇怪的问题)。

我们把GPT-4这个故事,和之前的OpenAI私有化部署消息连接在一起去看。他必将有选择地挑选合作伙伴,并利用实施的沉没成本和更强的技术效果实现生态绑定。

在国内百度其实也是类似的,他的首轮开放目前我听说也不会是2C(毫无根据的瞎说,下午见分晓),同样也是走2B生态合作绑定的路子。

你再和OpenAI开放测试标准这个点结合在一起看,为什么要提供标准?因为他要证明,市面上的都是垃圾,什么单机就能跑LLM,什么追平GPT-3体验效果都是胡扯。

不要说这些虚头巴脑的,API调一下,直接用我开源的标准来比较,是骡子是马拉出来溜溜。为了巩固这种优势,甚至他连可扩展性测试这么玄虚的指标都弄出来了,就是为了树立自己在技术效果上牢不可破的优势。

一些其他的影响

最后一部分影响也是对我们最大的,来自GPT-4在任务表现上到底相对GPT-3.5强大多少。

特别是在情感赛道领域,更强大的对话体验就是产品的绝杀,胜利者与失败者之间是不存在“将就能用”的中间地带的。

OpenAI发布多模态GPT-4:支持图像和文本输入,效果超越ChatGPT(含视频+速记稿)