好文: GPT-4发布!ChatGPT大升级!太太太太强了!

圈圈笔记 39

在未来,ChatGPT的成本会下降吗?它产生的商业影响是什么呢?语言模型与现存端口会如何结合?本文作者对这三个方面,分享了他的看法,希望能给你带来一些启发。

本文说三件事:

价格-90%背后是什么?商业影响是什么?真的要全面AIGC了?老调重弹,关注语言模型与现存交互端口的融合

一、成本下降猜测

结论在前:可以大胆地说,在未来,成本还会进一步下降,并且会令人难以想象。

1. 技术角度

技术优化一直在进行,2020年GPT-3发布的时候,单次训练成本是460万美元,而现在这个价格是140万美元,约-70%。尽管这是训练成本,而非推理(回答你的问题即推理)成本,但也能够作为参考。

具体的技术优化产生在哪些方面,算法?模型结构?工程设计?定制GPU?任务调度?——不知道(我没去搜哈哈)。但技术角度出发,成本会下降大家应该是不会怀疑的。

2. 商业角度

假设,你现在拥有全世界最领先的技术,拔剑四顾心茫然,寰球宇内一个能打的都没有。那么你会:

趁着技术领先期,能赚就赚。直接成本价售卖,圈用户圈数据圈场景圈服务商(特别我还有个金主爸爸的情况下),数据飞轮给我跑出火花来!剩余参赛者全都给我捡我挑剩的少量数据。

我想这道选择题应该不难做。

用另一个角度推理佐证:

SaaS服务成本一般在20%云服务成本在50%即背靠微软的OpenAI,其成本线恰好就是之前价格的十分之一也就是说人家说不定还有余力进一步降价,目前这个价格只是让渡了利润,还没算上技术点来的成本下降。(参考《ChatGPT背后的经济账》,深度好文,推荐搜索学习!)

那么降价90%就不难理解了,不管是技术成本优化还是商业成本优化,这场降价都必将发生(事后诸葛亮就是我了)。

3. 竞争角度

假设Google的产品出来了——面对势如烈火的微软,面对产生动摇的云客户。他发布基本对标产品之外,在价格上会做什么设计呢?

假设3月16日百度出来了,再过一段时间阿里、字节、腾讯等有能力的都跟进了,那么他们在价格上会形成默契的卡特尔吗?还是像当初百团大战一样,不得不陷入一场争夺数据、客户的囚徒困境?

好玩!刺激!曾经的免费打车、免费吃饭、免费骑单车似乎在向我招手了!

二、商业影响是什么

结论在前:有人狂喜有人没那么喜,走一步看三步。

1. 独立开发者狂喜

现在看似降价90%,但我更倾向这是一种商业行为促使的降价,即把LLM的成本和创业公司的费用成本拉到一条线(38000字/元)。

说白了这技术还是那么贵,只是我挥泪大甩卖,大公司和创业公司站一起奔跑。

Twitter一条令我印象深刻的评论是:这下子我可以做那些挂广告盈利的项目了。

2. 创业公司不一定喜

因为以前也能这么低成本的,只是你不知道。

0.02美元的价格是最贵的Davinci模型(GPT3.5),而Curie模型比他弱一些也更便宜一些,价格是0.002美元——就是ChatGPT现在的价格。

所以很多以前用GPT-3的创业公司,他根本就是基于Curie,或Curie微调后的模型在跑的业务。这次降价对他们更多是效果提升而非成本下降。

而且!暂时我在官网上没看到ChatGPT支持微调的说明(我没找到),如果真的是这样,一些创业公司应该正在难受——我是拥抱新模型呢?还是用现在这个微调过的旧模型将就一下?相信他们应该都在加班测试了。

3. 小模型公司风中飘扬

之前我认为LLM模型存在一些弊端,会提供给小模型公司一定的生存空间,具体包括:实时性(车载/直播等)、私有化(金融)、成本敏感(客服)、答案精确(金融)、道德控制(心理)等要求的场景还是会使用小模型。

实时性,有点崩,最新的ChatGPT接口,有人测试后发现,响应速度是之前的4倍(不严谨,未多方求证)。

成本敏感,暂时坚挺。对于客服来说,哪怕是目前的价格下降90%,仍然是扛不动的的价位——客服本来就是成本中心,多花任何一分钱都是困难的。不过一旦客服做upsell追加销售额场景跑通,成本可能就不是问题了。

私有化,OpenAI暴露出了私有化计划,一定程度上,这也不再是小模型公司独有的优势了。

只剩下答案精确、道德控制这两个LLM模型天生的缺陷死死撑住。

我比较担心在这样狂暴的技术演进中,小模型公司如何面对日新月异的LLM模型能力升级(我朋友圈一位朋友说,旧模型刚跑通接上,就落伍了……),如何面对大厂们卷起来的价格战?

跟还是不跟?怎么跟?这将是缠绕在小模型公司身上阴魂不散的魔咒。

4. 为什么走一步看三步

第一个原因前面提过,这个成本还会进一步下降——有一些业务你现在跑不通,或许等两个月模式就能跑通了。

那么——你要提前下场吗?还是等成本到尾再下场?一个典型的案列是AI绘画领域,企业是在成本高昂时入场的,靠勉强盈亏平衡活下来,并收获成本暴降后的红利——顺便还幸运地等来了ControlNet的二次升级,获得了更大的商业空间。

第二个原因则与OpenAI的另一项猜测有关,有爆料称OpenAI在预备开放支持32,000 token长度的模型——而上下文长度目前在最新的ChatGPT上是4096 token。更长的上下文可能使一些原本做不了的场景(例如长文本写作)成为可能。

总之走一步,看三步,可能今天你觉得不行的场景,明天凌晨大洋彼岸一则公告就行了,时刻保持更新,时刻提前预判。

如果你想看全面的所有方向的解析,请看我的分析库,因为每个方向我都要结合技术、商业做详细分析,写在文章里是彻头彻尾的灾难:重磅分享:40+ChatGPT商业项目库开源分享(持续增加)

三、语言模型与现存端口的结合

这种结合依赖于多模态+Toolformer,详情关注我上篇文章怎么风平浪静的?多模态+Toolformer,这波还不原地起飞?

我曾经认为语言模型会成为新时代的虚拟终端,即你无论要做什么、要用什么,你都是首先经过他——因为他太好用了!你就像吩咐你的秘书去帮你做事情一样。

但是我发现我错了,人类终究是实体,要与虚拟终端交互离不开实体终端,什么是实体终端?手机、电脑、音箱、VR、手表等。

微软发布多模态这篇论文可能不是没有原因的,自从BING上的尝试后,他现在一路脱缰野马一般冲向浏览器和Windows。

你想象一个场景→ 你用着电脑,带着耳机听歌,在阅读一篇商业报道。你对报道中提到的向量化数据库这个陌生的单词产生了疑问,你选中单词,向耳机语音提问,这是什么?LLM在浏览器的侧边栏为你列举了详细说明。→这时你想找一下现在向量数据库这个方向有多少从业者、市场空间怎么样,但是你这篇文章刚读到10%,你想继续读下去不想被打乱思绪。→于是你敲了下耳机,对耳机里LLM说帮我列一下向量数据库的玩家是哪些,搜集一下相关的市场分析报告并总结好,下载到本地。→当你阅读到30%的时候,耳机叮咚一声响,相关的分析和报告都下载好了,只等你阅读完毕后前往桌面的文件夹向量数据库分析中查看。

那么在未来,手机、电脑(其实就是Mac体系,window已经在搞了)、音箱、VR等多端联合起来会发生什么呢?哪个端口敢于拒绝拥抱全新的人机交互范式呢?而这场拥抱又会催生出哪些复合应用呢?

我觉得在未来,互联网阵营会围绕脱颖而出的LLM厂商进行重新站队重组——例如,假设苹果自己做不出来,你说他是拥抱微软还是拥抱Google呢?

新时代就要来了,不要只看到AIGC内容生成,也请看看这场颠覆式的交互革命吧!

本文由@马丁的面包屑 原创发布于人人都是产品经理,未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

上一篇:

下一篇:

  推荐阅读

分享