国内大模型价格战已打响,DeepSeek率先推出超低价服务,字节跳动的豆包大模型跟进、阿里的通义千问全线降价、百度文心一言、讯飞星火、腾讯混元等巨头纷纷跟进,新的时代开始了。
5 月 24
AIGC 100万TOKEN, AI, AI应用, APP开发, DeepSeek, FIGER01, 中国AI发展, 中国创新, 中国科技, 云服务, 交互体验, 人工智能, 价格战, 价格白菜化, 价格策略, 免费模型, 商业模式创新, 大模型, 大模型厂商, 字节跳动, 定制化服务, 开发者, 开源模型, 技术创新, 技术竞争, 擎天柱机器人, 数据利用, 机器人技术, 李开复, 流量, 王小川, 用户量, 百度, 百度云, 科技巨头, 移动互联网, 端到端多模态, 算力, 算力要求, 腾讯, 腾讯云, 腾讯混元大模型, 自动驾驶, 自然语言处理, 行业变革, 讯飞星火大模型, 语言模型, 跨模态交互, 阿里巴巴, 降价策略, 零一万物 国内大模型价格战已打响,DeepSeek率先推出超低价服务,字节跳动的豆包大模型跟进、阿里的通义千问全线降价、百度文心一言、讯飞星火、腾讯混元等巨头纷纷跟进,新的时代开始了。已关闭评论
大家好,
欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲国内大模型厂商,突然就变脸了,开始打价格战,而且是价格生死战。这个战争是从哪开始的?首先是有一个大模型叫deep sick,他先开始干的。原来我们使用100万TOKEN,大概也得十几二十块钱,甚至贵的也能有五六十块钱。国外的大模型经常是要到十几美金。他呢,直接来了一个啊,100万TOKEN一块钱人民币。DPC大家可能不是那么熟悉,因为他后边不是一个互联网巨头,也不是原来从互联网大厂出来的人,他后边是一个私募巨头,换方量化直接不讲武德啊,100万TOKEN一块钱人民币。
那紧随其后的呢,是豆包啊,这是字节跳动下边的大模型,直接降价到100万TOKEN 0.8元人民币。你不是一块吗,我8毛啊。然后通1,000问说那你们都降,我也来呗。我后边反正是阿里云,谁怕谁啊,最多的显卡都在我手里头,那降价啊,把通1,000问最新的千问Max千问浪什么,全都降到了一个白菜价。当然同1,000问降价的时候呢,还是用了一些小花招的啊,他把输入TOKEN跟输出TOKEN的价格分开了。什么意思?就是当你往里梳的时候,你也是算TOKEN的,当它往外吐的时候,也是算TOKEN的。就是它把往里梳的这个TOKEN的价格,降低了更多啊,往外吐的这个TOKEN呢,也在降,但是降的并没有那么多。大家能够理解,就是你往里输的内容,比如说现在有很多的大模型号称是可以输入100万字,200万字,但是他每一次输出,可能也就输出个1,000字,2,000字,他不会输出那么多的。你说一大模型坐在那,吭哧吭哧给你吐100万字出来,有人看没有?一个人坐在那阅读,读100万字也得会功夫吧。所以呢,从大模型输出的这个TOKEN稍微贵些啊。然后百度特别逗啊,百度先强调了一下,说不要关注价格,要看这个大模型的特性,以及大模型的性质,是不是适合你的场景。讲完了以后呢,左右一看说哎,你们都跑了,等等我等等我,对吧?直接把手里头两个最常用的模型,一个叫快速模型,一个是轻量级模型免费,对吧你们还要收钱吗?咱不要钱了。
科大讯飞的星火大模型说,百度既然已经做出这个样子来了,那咱也来吧,把轻量级模型直接免费,重量级模型降价。大家都是这么干,那腾讯说,咱们也不能落后,腾讯做的叫浑圆大模型,一样轻量级模型免费,其他全线产品价格下降。所以国内现在使用大模型产品,就算是一些比较好的模型,比如像千问Max千问浪这样的模型,你现在100万TOKEN的价格,可能也就是个几块钱啊,或者一两块钱,两三块钱,就这种水平,非常非常便宜啊。
其他的一些人是什么反应?大家都降价,是不是大家都挺开心的?也有不开心的啊,比如说灵异万物的李开复就在那喊,说为啥要降价呢?不要降价,我们现在就不降。另外一个是百川智能的王小川,也在那喊说,没觉得应该降价,咱们就这样吧。啊百度呢是前头喊了价格不重要,但是大家都知道啊,百度向来是一个没有什么担当的公司,啊上午喊完了,下午就可以直接喊免费的,这样的一个公司,这就是百度干的活。
然后Kimi是比较逗的啊,Kimi现在是国内所有大模型里头,用户量最高的一个,他比百度那个文心妍用用户量还大,百度文心妍月活大概是1,600多万啊,Kimi大概有2,000万。Kimi呢,在这个时候玩了一个特别神的招数,打赏啊。什么意思呢?就是咱们国内的整个的大模型收费状态是这样的啊,分三块一块呢是免费可以使用的,比如说,通1千问啊,Kimi零一万物,百度的文信易言的3.5,还有一些收费的公众服务。比如说呢,百度的文心易言4.0,就相当于它做了一个像charge GPT4似的东西。大家知道charge GPT3.5是免费的,charge GPT4是要收费的,是plus版本。百度也整了这么个东西。然后再往后呢,就是调API。公益前问,仔细一言。这些API这个是要按TOKEN来收费的。原来就是这三块收费。Kimi的并没有跟进。大家说我也把API TOKEN的降格降下来。他没干这事啊。他做了一个什么事呢?他说我们啊,也开始收费吧。Kimi直接问答的这部分,面向c端用户的这部分开始收费。他干了这么个事。而且他的收费方式呢,还特别逗。大家知道像charge GPT它是怎么收费的,就一个月20美金,你交了20美金就是plus进,了plus以后,我们就可以使用charge GPT4了,可以使用GPTS。如果你是呃,百度文心妍也是这样的,每个月交多少钱,然后交了钱以后,你可以去用它的文心妍4.0,你不交钱就不让用。Kimi呢,它是打赏模式,就是你平时上网用来啊,没问题,但是因为用户量大嘛,所以他经常会有反应不及时的时候,就是你调着调Kimi,Kimi说哎呀对不起,现在提问题的人有点多,你要稍微等一会,过几分钟再问,对吧,Kimi经常干这种事情啊。那么在这个时候呢,你就可以选择说,那我打个赏吧,我赏给keep me一点钱,比如说赏给他5块2,可以有4天的快速时间,你说我赏给他366,可以直接一年时间都可以快速,那你说我不想打赏,我就这么使着行不行,也没毛病,但是呢,等Kimi的服务器比较紧张的时候,你就要为这些打过赏的人让路啊。你要多等一会儿。他做了这么一个方式,很多人都上去打赏去,甚至有些人说:“现在Kimi并没有出现任何的反应,速度下降的这个情况。”你也可以在Kimi里头直接输入“叫我要打赏”四个字,一回车啊,他就上来了,说你给钱吧,对吧这个事也是OK的啊。所以Kimi做了一个特别有意思的事情。
那么,这件事情对未来到底有什么影响啊?
第一个对于个人用户来说,基本上没影响啊,因为我们原来甭管是使用Kimi,使用公益,千万都是不用付钱的。就算是这个万知,就是灵异万物新做出来的东西,包括其他的各个大模型平台,大概都做了一个Toc这样的一个聊天工具,都是不要钱的。当然这个里头呢,我们为给百度文信、易言4.0交年费的朋友们稍微的默哀一会啊,他们估计已经哭晕在厕所了。
对于那些专注于模型的厂商来说,他们的问题就比较大了啊,他们会比较痛苦。实际上这里讲的就是前面两位反对降价的这两个人,一个是李开复,一个是王小川,他们呢算是玩的叫小而美的团队,他们团队都不大,做出来的模型呢,都可以在各种排行榜上评分上评的很高啊,甭管是灵异万物的e LATCH,还是现在啊百川智能的这个百川的,都可以评分评的非常高。他们原来希望依靠什么呢?我的评分高,你最后要选我的模型,想干这件事情。但是现在不了啊,人家说我们免费,我们评分虽然没有你高,但是我们免费,或者我很便宜,靠这样的事情,那么他们的日子会很难过。他们唯一的出路是什么呢?快速的找到他们特定的应用场景,比如说某一些场景我必须用百川制冷,或者某一些场景我必须用灵异万物,否则的话,是不会有人去用他的这么贵的API去干活的。零一万物的这些API还是很贵的,100万TOKEN的价格里得有十几块钱。一般人用不起的。就算他们收这么贵啊,他们也不可能依靠API收费来实现盈利。这件事是不可能的啊,所以呢他们应该会降价,很快就会跟着降价。降价呢,对于他们来说就是快速失血。一旦降价了以后,他们一方面是挣回来钱更少,另外一方面的问题知道是什么吗?就是他们的服务器消耗的会更高,因为这个东西便宜了吗,就会有更多的人去用,用没成本上升。
在这个过程中,如果在钱烧完之前啊,没有找到新的特定使用场景的话,那么这些厂商就准备被收购,或者准备关张吧,没有他们什么事了。那么真正利好的是什么啊?真正利好的这些APP开发者,海量的APP,现在应该已经在涌现的路上了。哎像我现在自己写应用,去用AI去生成小说,这样的事情,我是要掰着手指头数的,我到底用谁的API啊,到底用谁的大模型,谁家的大模型价格是多少,我每天都在掰手指头算。那现在好了,这么便宜了,那咱就上呗,这还有什么好说的呢?对吧一定会有非常非常多的APP,在这个时候会涌现出来啊。
原来这些APP不愿意去调他们的这个大模型的原因是贵,因为你如果有很多的用户,比如说我一个APP做出来了啊,有个10万个日日活啊,一天有10万个人用,那么这10万个日活,每天跟这个大模型啊,每个人聊个比如说10句20句的,那原来是一个很大的成本。现在这个成本,基本上可以在原来的基础上,可能下降个99%点几。那在这样的情况下的话,他们就敢去让大模型,更多地参与到APP的运作里边去。那可能很多新的商业模式就会在这个里边诞生出来。
在这个过程中,一定是乱拳打死老师傅的时候啊,就是中国人从来不想着什么谋定而后动,咱就是把价格降下来,所有人啊,拍着脑袋上啊,最后不一定哪块云彩下雨。这是咱们最擅长的这种竞争模式。移动互联网,我们基本上就是靠这种模式成功的。满天下全是中国人做的APP,就是这么来的。现在我们把大模型的成本降下来,以后也是一样啊,满天下都是中国人做的AI应用,一定会变成这样。出海的应用现在应该也在路上,大家注意啊。
你说我出海的应用,我调GPT不就完事了吗?那玩意质量多好。别想这个GPT挺贵的。PPT你要去调100万TOKEN,那得多少钱。现在GPT给的价格是一千次啊,一千次多多少钱。你要100万TOKEN,它应该至少是比国内的所有的这些大模型贵,可能几十倍啊,甚至是上百倍。这样的购贵法,未来GPT有可能会调整,继续降价。GPT反而也一直在降价嘛,甚至现在GPT4欧,还可以免费开放给普通用户去使用。然而使用的次数是3个小时十六四啊,但依然还是很贵的。
如果国内的大模型说我免费了,我不要钱了,或者说我用一个白菜价100万TOKEN,几毛钱你们就去用吧,那么在这样的情况下,就会有大量的接中国大模型的这些应用啊,到海外四处去厮杀去。便宜啊你,你那个应用接的是GPT,那你可能就需要去考虑成本了。我们的模型后边这接的是文心岩轻量级模型,零成本干呗。这事还有什么好说的呢?所以这个又应该也是一个趋势。
那么大厂呢,倒并不担心这件事啊。大厂子你说我推理成本还是挺高的,我不要大家的钱了,我直接让大家免费的来用我的模型,那他最后挣什么钱去呢?大家注意啊,现在参加降价的,甭管是字节跳动,还是阿里,还是百度腾讯这些公司,人家掌握两样东西。第一个东西叫流量,用户在人手里头。另外一个东西叫基础设施,云在人家手里头。当有了新的商业模式,有了新的这个玩法以后,最终这些大厂还是会靠这两只手啊。把新的应用控制在鼓掌之中啊。你是跳不出如来佛手掌心的。就算你做出了AI应用来,用户非常喜欢,用户量非常大,你最后还是要到自阶跳动,要到腾讯,要到百度那里去买流量,你还是要到阿里那里去买云,你是跑不掉的,你依然会替大厂去打工,去干活啊。所以大厂并不担心,说我现在是不是会亏了啊。不怕这事。
至于ToB的那些厂商呢,啊这个,比如说,我现在是为什么什么人服务的啊,我给人去做RAG,我给人做大模型实施的这些人,那么他们呢,呃主要是要靠收服务费活着啊。比如使用同1,000分的,使用这个文新言的,我去给人做服务去就好了。但是呢这个价格肯定也得下降,人家都下降了,你凭什么说我这个二道贩子,做服务的,我不降价,这事是肯定不现实的啊。所以他也会降价。
原来还有一些拿开元模型自己训练了以后,去给人家做,号称自主知识产权小模型的,这些人号称什么行业模型的,这些人,就会被打回原形。后面没他们什么事了,因为这些模型,你想去跟真正云端上面的,这种大模型去比,甭管是千问Max,或者是文心一言的一些大模型去比,你是打不过人家的,这个差非常远。就算是你拿小模型做很多的训练,或者做很多的微调,你说我想最后得到空气切换Max那种再微调一下,那个效果,基本上是不现实啊,非常痛苦。所以他们就会被打回原形。
未来啊这些开元本地模型,肯定是会受到打压的啊。为什么呢,因为使用开元本地模型,进行部署和维护的成本,其实还是相对比较高的。你想现在这个模型是本地开源的,比如说像我用欧拉玛的这种模型,它呢其实有几个用途,第一个就是干嘛,就是写程序用,我去这个写程序的时候,先调本地的一些模型,然后未来再去换成这种云端的模型啊,我现在其实真正干活,是不怎么用本地模型。那玩意很慢啊,而且这个对电脑的算力要求实在太高了啊。这是第一个原因啊。
第二个原因是什么呢?就是我要在本地,去为自己的道德去负责任。这是什么意思?就是你一旦是使用云端模型了,最后说什么不说什么是他说了算的,你自己说了不算的。但是当有一些事情,我觉得应该是我自己说了算的时候,我会用本地模型去干活。
所以,本地模型除了这几个特殊的需求之外,可能未来直接在本地部署生产系统的这个需求就没有那么大了啊。啊这块会受到一定打压。从长远来看,下一个竞争到底是什么啊?现在等于我们已经把文字大模型,或者纯文字这块已经搞透了啊。为什么呢?就是他们已经说,最后咱就直接打价格战了。所以这事已经没什么可竞争的。
大家想没想过为什么GBT5这么难产?其实在文字这个基础上,大家基本上卷到头了。你说我在文字基础上再进一步往前卷,怎么能够让文字大模型的水平,再进一步上升,已经很难了。因为人的语言能力和阅读理解能力,已经到这了。他GPT4基本上达到极限了。
所以真正该往后卷的是什么?不是说,我能不能做出更好的这个文字大模型,GPT5来,而是说我应该去做多模态了。就是GPT4O才是未来的方向,端到端的多模态是未来方向。那么所谓的文字大模型,最后啊应该再往哪块,还可以再前进那么一点点呢?就这块天花板已经基本上到了啊。再往前一点点就是更长的上下文,现在比如说有128K的,有一兆的两兆的,100万200万TOKEN的,然后把反应速度再提高一些,逻辑能力再提高一些。GPT4现在差就是逻辑能力差一点啊,它比Pro的逻辑能力还是要差一些,比Gemini的逻辑能力差一些。这一块可能还能再提升那么一点点,其他的已经没什么可提升了。国内的这些大模型厂商,甭管是通一千问、文心一、眼百川、名医、万物,现在基本上都已经接近,甚至部分达到了GPT-4的这种文字水平。让他们接着往前去卷这个多模态大模型呢,他们又卷不太动。所以只能说我们先把这一块给你吃透,先把文字大模型这块直接给你打成免费,打成白菜价。在这样的基础上,我们靠中国原来开发移动应用的这股力量啊,这么多人来乱拳打死老师傅,把应用这一端给他补上。因为这一块OpenAI自己也不太会,而且指望美国人、指望老外去干这事,他们也干不了。在原来移动互联网的时候,我们已经很好的验证了这件事,想去做APP还得靠中国人。所以中国人这一次的竞争,就在干这件事。说来我们能干的事干完了啊,该你们上了,做APP的你们上。
真正往后的竞争是什么?李开复前面讲说,国内跟国外的差异成差6个月啊。他说去年国内跟国外的差距,就是在大模型这块是7-10年啊,现在只差6个月了。但我现在感觉他现在讲的这个话,还是有点太过于乐观了。你在端到端多模态大模型的竞争上,我们跟国外跟OpenAI的差距,跟谷歌的差距,应该还是有这么两三年的。这个才是合理的。所以在短期内,我觉得我们在端到端多模态大模型上,还有的追。
那你说这玩意干嘛使?就像GPT-4给大家演示的这种东西,我这边说,他就可以给我回复,包括我们看到的擎天柱机器人、FIGER01的这样的机器人,这些东西背后都是那种端到端多模态。这个才是OpenAI和谷歌他们下一步要卷的东西。咱们在这一步哈,估计应该也有团队开始上了,但是现在还稍微有些差距,而且卷那个东西。那是真的需要巨大算力和数据啊。在这一块上,我们拭目以待啊,国人到底能做成什么样。再往后一步,比如说AI PC跟AI手机,大家想没想过这玩意儿是怎么发展?如果大家最后都跑去说,我免费大模型去用去了,那么AI PC跟AI手机,最后还是要去靠多模态来搞定啊。就是说,我必须要在本地有大量的音视频信息,必须在本地进行一定的处理,在本地进行快速反应,你才需要AI PC和AI手机。你如果就是文字内容,那咱就扔到服务器上完事了,反正也不要钱,或者反正也很便宜啊。这个事情他就会变得不一样。
所以AI PC这件事了,我觉得前路还稍微有一些些坎坷吧。最终总结一下啊,这一次大模型降价,它实际上是一个蜂巢。原因就是,我们已经把文字生成大模型彻底卷透了。卷透了以后,各大厂商准备发动最后的总攻,让所有的这些能够做APP的人冲上去,把所有的商业模式,所有的商业应用的边界都摸索一遍啊,这是现在真正要去干的事情。下一步再选,咱们就选端到端多模态了。前边文字大模型这一块,战争结束了啊。这是今天要讲的内容。感谢大家收听,请帮忙点赞点小铃铛,参加disco讨论群也欢迎。有兴趣有能力的朋友,加入我的付费频道,再见。\n