国内大模型价格战已打响,DeepSeek率先推出超低价服务,字节跳动的豆包大模型跟进、阿里的通义千问全线降价、百度文心一言、讯飞星火、腾讯混元等巨头纷纷跟进,新的时代开始了。
大家好,
欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲国内大模型厂商,突然就变脸了,开始打价格战,而且是价格生死战。这个战争是从哪开始的?首先是有一个大模型叫deep sick,他先开始干的。原来我们使用100万TOKEN,大概也得十几二十块钱,甚至贵的也能有五六十块钱。国外的大模型经常是要到十几美金。他呢,直接来了一个啊,100万TOKEN一块钱人民币。DPC大家可能不是那么熟悉,因为他后边不是一个互联网巨头,也不是原来从互联网大厂出来的人,他后边是一个私募巨头,换方量化直接不讲武德啊,100万TOKEN一块钱人民币。
那紧随其后的呢,是豆包啊,这是字节跳动下边的大模型,直接降价到100万TOKEN 0.8元人民币。你不是一块吗,我8毛啊。然后通1,000问说那你们都降,我也来呗。我后边反正是阿里云,谁怕谁啊,最多的显卡都在我手里头,那降价啊,把通1,000问最新的千问Max千问浪什么,全都降到了一个白菜价。当然同1,000问降价的时候呢,还是用了一些小花招的啊,他把输入TOKEN跟输出TOKEN的价格分开了。什么意思?就是当你往里梳的时候,你也是算TOKEN的,当它往外吐的时候,也是算TOKEN的。就是它把往里梳的这个TOKEN的价格,降低了更多啊,往外吐的这个TOKEN呢,也在降,但是降的并没有那么多。大家能够理解,就是你往里输的内容,比如说现在有很多的大模型号称是可以输入100万字,200万字,但是他每一次输出,可能也就输出个1,000字,2,000字,他不会输出那么多的。你说一大模型坐在那,吭哧吭哧给你吐100万字出来,有人看没有?一个人坐在那阅读,读100万字也得会功夫吧。所以呢,从大模型输出的这个TOKEN稍微贵些啊。然后百度特别逗啊,百度先强调了一下,说不要关注价格,要看这个大模型的特性,以及大模型的性质,是不是适合你的场景。讲完了以后呢,左右一看说哎,你们都跑了,等等我等等我,对吧?直接把手里头两个最常用的模型,一个叫快速模型,一个是轻量级模型免费,对吧你们还要收钱吗?咱不要钱了。
科大讯飞的星火大模型说,百度既然已经做出这个样子来了,那咱也来吧,把轻量级模型直接免费,重量级模型降价。大家都是这么干,那腾讯说,咱们也不能落后,腾讯做的叫浑圆大模型,一样轻量级模型免费,其他全线产品价格下降。所以国内现在使用大模型产品,就算是一些比较好的模型,比如像千问Max千问浪这样的模型,你现在100万TOKEN的价格,可能也就是个几块钱啊,或者一两块钱,两三块钱,就这种水平,非常非常便宜啊。
其他的一些人是什么反应?大家都降价,是不是大家都挺开心的?也有不开心的啊,比如说灵异万物的李开复就在那喊,说为啥要降价呢?不要降价,我们现在就不降。另外一个是百川智能的王小川,也在那喊说,没觉得应该降价,咱们就这样吧。啊百度呢是前头喊了价格不重要,但是大家都知道啊,百度向来是一个没有什么担当的公司,啊上午喊完了,下午就可以直接喊免费的,这样的一个公司,这就是百度干的活。
然后Kimi是比较逗的啊,Kimi现在是国内所有大模型里头,用户量最高的一个,他比百度那个文心妍用用户量还大,百度文心妍月活大概是1,600多万啊,Kimi大概有2,000万。Kimi呢,在这个时候玩了一个特别神的招数,打赏啊。什么意思呢?就是咱们国内的整个的大模型收费状态是这样的啊,分三块一块呢是免费可以使用的,比如说,通1千问啊,Kimi零一万物,百度的文信易言的3.5,还有一些收费的公众服务。比如说呢,百度的文心易言4.0,就相当于它做了一个像charge GPT4似的东西。大家知道charge GPT3.5是免费的,charge GPT4是要收费的,是plus版本。百度也整了这么个东西。然后再往后呢,就是调API。公益前问,仔细一言。这些API这个是要按TOKEN来收费的。原来就是这三块收费。Kimi的并没有跟进。大家说我也把API TOKEN的降格降下来。他没干这事啊。他做了一个什么事呢?他说我们啊,也开始收费吧。Kimi直接问答的这部分,面向c端用户的这部分开始收费。他干了这么个事。而且他的收费方式呢,还特别逗。大家知道像charge GPT它是怎么收费的,就一个月20美金,你交了20美金就是plus进,了plus以后,我们就可以使用charge GPT4了,可以使用GPTS。如果你是呃,百度文心妍也是这样的,每个月交多少钱,然后交了钱以后,你可以去用它的文心妍4.0,你不交钱就不让用。Kimi呢,它是打赏模式,就是你平时上网用来啊,没问题,但是因为用户量大嘛,所以他经常会有反应不及时的时候,就是你调着调Kimi,Kimi说哎呀对不起,现在提问题的人有点多,你要稍微等一会,过几分钟再问,对吧,Kimi经常干这种事情啊。那么在这个时候呢,你就可以选择说,那我打个赏吧,我赏给keep me一点钱,比如说赏给他5块2,可以有4天的快速时间,你说我赏给他366,可以直接一年时间都可以快速,那你说我不想打赏,我就这么使着行不行,也没毛病,但是呢,等Kimi的服务器比较紧张的时候,你就要为这些打过赏的人让路啊。你要多等一会儿。他做了这么一个方式,很多人都上去打赏去,甚至有些人说:“现在Kimi并没有出现任何的反应,速度下降的这个情况。”你也可以在Kimi里头直接输入“叫我要打赏”四个字,一回车啊,他就上来了,说你给钱吧,对吧这个事也是OK的啊。所以Kimi做了一个特别有意思的事情。
那么,这件事情对未来到底有什么影响啊?
第一个对于个人用户来说,基本上没影响啊,因为我们原来甭管是使用Kimi,使用公益,千万都是不用付钱的。就算是这个万知,就是灵异万物新做出来的东西,包括其他的各个大模型平台,大概都做了一个Toc这样的一个聊天工具,都是不要钱的。当然这个里头呢,我们为给百度文信、易言4.0交年费的朋友们稍微的默哀一会啊,他们估计已经哭晕在厕所了。
对于那些专注于模型的厂商来说,他们的问题就比较大了啊,他们会比较痛苦。实际上这里讲的就是前面两位反对降价的这两个人,一个是李开复,一个是王小川,他们呢算是玩的叫小而美的团队,他们团队都不大,做出来的模型呢,都可以在各种排行榜上评分上评的很高啊,甭管是灵异万物的e LATCH,还是现在啊百川智能的这个百川的,都可以评分评的非常高。他们原来希望依靠什么呢?我的评分高,你最后要选我的模型,想干这件事情。但是现在不了啊,人家说我们免费,我们评分虽然没有你高,但是我们免费,或者我很便宜,靠这样的事情,那么他们的日子会很难过。他们唯一的出路是什么呢?快速的找到他们特定的应用场景,比如说某一些场景我必须用百川制冷,或者某一些场景我必须用灵异万物,否则的话,是不会有人去用他的这么贵的API去干活的。零一万物的这些API还是很贵的,100万TOKEN的价格里得有十几块钱。一般人用不起的。就算他们收这么贵啊,他们也不可能依靠API收费来实现盈利。这件事是不可能的啊,所以呢他们应该会降价,很快就会跟着降价。降价呢,对于他们来说就是快速失血。一旦降价了以后,他们一方面是挣回来钱更少,另外一方面的问题知道是什么吗?就是他们的服务器消耗的会更高,因为这个东西便宜了吗,就会有更多的人去用,用没成本上升。
在这个过程中,如果在钱烧完之前啊,没有找到新的特定使用场景的话,那么这些厂商就准备被收购,或者准备关张吧,没有他们什么事了。那么真正利好的是什么啊?真正利好的这些APP开发者,海量的APP,现在应该已经在涌现的路上了。哎像我现在自己写应用,去用AI去生成小说,这样的事情,我是要掰着手指头数的,我到底用谁的API啊,到底用谁的大模型,谁家的大模型价格是多少,我每天都在掰手指头算。那现在好了,这么便宜了,那咱就上呗,这还有什么好说的呢?对吧一定会有非常非常多的APP,在这个时候会涌现出来啊。
原来这些APP不愿意去调他们的这个大模型的原因是贵,因为你如果有很多的用户,比如说我一个APP做出来了啊,有个10万个日日活啊,一天有10万个人用,那么这10万个日活,每天跟这个大模型啊,每个人聊个比如说10句20句的,那原来是一个很大的成本。现在这个成本,基本上可以在原来的基础上,可能下降个99%点几。那在这样的情况下的话,他们就敢去让大模型,更多地参与到APP的运作里边去。那可能很多新的商业模式就会在这个里边诞生出来。
在这个过程中,一定是乱拳打死老师傅的时候啊,就是中国人从来不想着什么谋定而后动,咱就是把价格降下来,所有人啊,拍着脑袋上啊,最后不一定哪块云彩下雨。这是咱们最擅长的这种竞争模式。移动互联网,我们基本上就是靠这种模式成功的。满天下全是中国人做的APP,就是这么来的。现在我们把大模型的成本降下来,以后也是一样啊,满天下都是中国人做的AI应用,一定会变成这样。出海的应用现在应该也在路上,大家注意啊。
你说我出海的应用,我调GPT不就完事了吗?那玩意质量多好。别想这个GPT挺贵的。PPT你要去调100万TOKEN,那得多少钱。现在GPT给的价格是一千次啊,一千次多多少钱。你要100万TOKEN,它应该至少是比国内的所有的这些大模型贵,可能几十倍啊,甚至是上百倍。这样的购贵法,未来GPT有可能会调整,继续降价。GPT反而也一直在降价嘛,甚至现在GPT4欧,还可以免费开放给普通用户去使用。然而使用的次数是3个小时十六四啊,但依然还是很贵的。
如果国内的大模型说我免费了,我不要钱了,或者说我用一个白菜价100万TOKEN,几毛钱你们就去用吧,那么在这样的情况下,就会有大量的接中国大模型的这些应用啊,到海外四处去厮杀去。便宜啊你,你那个应用接的是GPT,那你可能就需要去考虑成本了。我们的模型后边这接的是文心岩轻量级模型,零成本干呗。这事还有什么好说的呢?所以这个又应该也是一个趋势。
那么大厂呢,倒并不担心这件事啊。大厂子你说我推理成本还是挺高的,我不要大家的钱了,我直接让大家免费的来用我的模型,那他最后挣什么钱去呢?大家注意啊,现在参加降价的,甭管是字节跳动,还是阿里,还是百度腾讯这些公司,人家掌握两样东西。第一个东西叫流量,用户在人手里头。另外一个东西叫基础设施,云在人家手里头。当有了新的商业模式,有了新的这个玩法以后,最终这些大厂还是会靠这两只手啊。把新的应用控制在鼓掌之中啊。你是跳不出如来佛手掌心的。就算你做出了AI应用来,用户非常喜欢,用户量非常大,你最后还是要到自阶跳动,要到腾讯,要到百度那里去买流量,你还是要到阿里那里去买云,你是跑不掉的,你依然会替大厂去打工,去干活啊。所以大厂并不担心,说我现在是不是会亏了啊。不怕这事。
至于ToB的那些厂商呢,啊这个,比如说,我现在是为什么什么人服务的啊,我给人去做RAG,我给人做大模型实施的这些人,那么他们呢,呃主要是要靠收服务费活着啊。比如使用同1,000分的,使用这个文新言的,我去给人做服务去就好了。但是呢这个价格肯定也得下降,人家都下降了,你凭什么说我这个二道贩子,做服务的,我不降价,这事是肯定不现实的啊。所以他也会降价。
原来还有一些拿开元模型自己训练了以后,去给人家做,号称自主知识产权小模型的,这些人号称什么行业模型的,这些人,就会被打回原形。后面没他们什么事了,因为这些模型,你想去跟真正云端上面的,这种大模型去比,甭管是千问Max,或者是文心一言的一些大模型去比,你是打不过人家的,这个差非常远。就算是你拿小模型做很多的训练,或者做很多的微调,你说我想最后得到空气切换Max那种再微调一下,那个效果,基本上是不现实啊,非常痛苦。所以他们就会被打回原形。
未来啊这些开元本地模型,肯定是会受到打压的啊。为什么呢,因为使用开元本地模型,进行部署和维护的成本,其实还是相对比较高的。你想现在这个模型是本地开源的,比如说像我用欧拉玛的这种模型,它呢其实有几个用途,第一个就是干嘛,就是写程序用,我去这个写程序的时候,先调本地的一些模型,然后未来再去换成这种云端的模型啊,我现在其实真正干活,是不怎么用本地模型。那玩意很慢啊,而且这个对电脑的算力要求实在太高了啊。这是第一个原因啊。
第二个原因是什么呢?就是我要在本地,去为自己的道德去负责任。这是什么意思?就是你一旦是使用云端模型了,最后说什么不说什么是他说了算的,你自己说了不算的。但是当有一些事情,我觉得应该是我自己说了算的时候,我会用本地模型去干活。
所以,本地模型除了这几个特殊的需求之外,可能未来直接在本地部署生产系统的这个需求就没有那么大了啊。啊这块会受到一定打压。从长远来看,下一个竞争到底是什么啊?现在等于我们已经把文字大模型,或者纯文字这块已经搞透了啊。为什么呢?就是他们已经说,最后咱就直接打价格战了。所以这事已经没什么可竞争的。
大家想没想过为什么GBT5这么难产?其实在文字这个基础上,大家基本上卷到头了。你说我在文字基础上再进一步往前卷,怎么能够让文字大模型的水平,再进一步上升,已经很难了。因为人的语言能力和阅读理解能力,已经到这了。他GPT4基本上达到极限了。
所以真正该往后卷的是什么?不是说,我能不能做出更好的这个文字大模型,GPT5来,而是说我应该去做多模态了。就是GPT4O才是未来的方向,端到端的多模态是未来方向。那么所谓的文字大模型,最后啊应该再往哪块,还可以再前进那么一点点呢?就这块天花板已经基本上到了啊。再往前一点点就是更长的上下文,现在比如说有128K的,有一兆的两兆的,100万200万TOKEN的,然后把反应速度再提高一些,逻辑能力再提高一些。GPT4现在差就是逻辑能力差一点啊,它比Pro的逻辑能力还是要差一些,比Gemini的逻辑能力差一些。这一块可能还能再提升那么一点点,其他的已经没什么可提升了。国内的这些大模型厂商,甭管是通一千问、文心一、眼百川、名医、万物,现在基本上都已经接近,甚至部分达到了GPT-4的这种文字水平。让他们接着往前去卷这个多模态大模型呢,他们又卷不太动。所以只能说我们先把这一块给你吃透,先把文字大模型这块直接给你打成免费,打成白菜价。在这样的基础上,我们靠中国原来开发移动应用的这股力量啊,这么多人来乱拳打死老师傅,把应用这一端给他补上。因为这一块OpenAI自己也不太会,而且指望美国人、指望老外去干这事,他们也干不了。在原来移动互联网的时候,我们已经很好的验证了这件事,想去做APP还得靠中国人。所以中国人这一次的竞争,就在干这件事。说来我们能干的事干完了啊,该你们上了,做APP的你们上。
真正往后的竞争是什么?李开复前面讲说,国内跟国外的差异成差6个月啊。他说去年国内跟国外的差距,就是在大模型这块是7-10年啊,现在只差6个月了。但我现在感觉他现在讲的这个话,还是有点太过于乐观了。你在端到端多模态大模型的竞争上,我们跟国外跟OpenAI的差距,跟谷歌的差距,应该还是有这么两三年的。这个才是合理的。所以在短期内,我觉得我们在端到端多模态大模型上,还有的追。
那你说这玩意干嘛使?就像GPT-4给大家演示的这种东西,我这边说,他就可以给我回复,包括我们看到的擎天柱机器人、FIGER01的这样的机器人,这些东西背后都是那种端到端多模态。这个才是OpenAI和谷歌他们下一步要卷的东西。咱们在这一步哈,估计应该也有团队开始上了,但是现在还稍微有些差距,而且卷那个东西。那是真的需要巨大算力和数据啊。在这一块上,我们拭目以待啊,国人到底能做成什么样。再往后一步,比如说AI PC跟AI手机,大家想没想过这玩意儿是怎么发展?如果大家最后都跑去说,我免费大模型去用去了,那么AI PC跟AI手机,最后还是要去靠多模态来搞定啊。就是说,我必须要在本地有大量的音视频信息,必须在本地进行一定的处理,在本地进行快速反应,你才需要AI PC和AI手机。你如果就是文字内容,那咱就扔到服务器上完事了,反正也不要钱,或者反正也很便宜啊。这个事情他就会变得不一样。
所以AI PC这件事了,我觉得前路还稍微有一些些坎坷吧。最终总结一下啊,这一次大模型降价,它实际上是一个蜂巢。原因就是,我们已经把文字生成大模型彻底卷透了。卷透了以后,各大厂商准备发动最后的总攻,让所有的这些能够做APP的人冲上去,把所有的商业模式,所有的商业应用的边界都摸索一遍啊,这是现在真正要去干的事情。下一步再选,咱们就选端到端多模态了。前边文字大模型这一块,战争结束了啊。这是今天要讲的内容。感谢大家收听,请帮忙点赞点小铃铛,参加disco讨论群也欢迎。有兴趣有能力的朋友,加入我的付费频道,再见。\n
Both comments and pings are currently closed.