<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>AI安全性 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/ai%e5%ae%89%e5%85%a8%e6%80%a7/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Thu, 20 Feb 2025 00:40:05 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>AI安全性 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Grok 3发布：Elon Musk称其为“宇宙最聪明”大模型，暴力出奇迹的xAI，是否可以成为AI时代的世界工厂？</title>
		<link>https://lukefan.com/2025/02/20/grok-3%e5%8f%91%e5%b8%83%ef%bc%9aelon-musk%e7%a7%b0%e5%85%b6%e4%b8%ba%e5%ae%87%e5%ae%99%e6%9c%80%e8%81%aa%e6%98%8e%e5%a4%a7%e6%a8%a1%e5%9e%8b%ef%bc%8c%e6%9a%b4%e5%8a%9b%e5%87%ba/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Thu, 20 Feb 2025 00:40:03 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[Musk传奇]]></category>
		<category><![CDATA[20万GPU]]></category>
		<category><![CDATA[AI API]]></category>
		<category><![CDATA[AI参数]]></category>
		<category><![CDATA[AI商业化]]></category>
		<category><![CDATA[AI大模型]]></category>
		<category><![CDATA[AI安全性]]></category>
		<category><![CDATA[AI对比]]></category>
		<category><![CDATA[AI幻觉]]></category>
		<category><![CDATA[AI开源]]></category>
		<category><![CDATA[AI快速迭代]]></category>
		<category><![CDATA[AI排行榜]]></category>
		<category><![CDATA[AI架构]]></category>
		<category><![CDATA[AI模型评测]]></category>
		<category><![CDATA[AI模型选择]]></category>
		<category><![CDATA[AI流量大战]]></category>
		<category><![CDATA[AI测试策略]]></category>
		<category><![CDATA[AI用户体验]]></category>
		<category><![CDATA[AI直播发布]]></category>
		<category><![CDATA[AI订阅]]></category>
		<category><![CDATA[AI训练]]></category>
		<category><![CDATA[AI语音识别]]></category>
		<category><![CDATA[AI迭代]]></category>
		<category><![CDATA[Deep Research功能]]></category>
		<category><![CDATA[Deep Search功能]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek R1]]></category>
		<category><![CDATA[Deepseek V3]]></category>
		<category><![CDATA[DeepSeek对比]]></category>
		<category><![CDATA[DeepSeek开源]]></category>
		<category><![CDATA[DeepSeek模型]]></category>
		<category><![CDATA[DeepSeek训练]]></category>
		<category><![CDATA[DeepSeek论文]]></category>
		<category><![CDATA[Grok 2]]></category>
		<category><![CDATA[Grok 3]]></category>
		<category><![CDATA[Grok 3发布会]]></category>
		<category><![CDATA[Grok 3对齐]]></category>
		<category><![CDATA[Grok 3费用]]></category>
		<category><![CDATA[Grok APP]]></category>
		<category><![CDATA[OpenAI对比]]></category>
		<category><![CDATA[Think与Deep Search对比]]></category>
		<category><![CDATA[Think功能]]></category>
		<category><![CDATA[XAI]]></category>
		<category><![CDATA[XAI发展]]></category>
		<category><![CDATA[XAI发布会]]></category>
		<category><![CDATA[XAI合伙人]]></category>
		<category><![CDATA[XAI商业方向]]></category>
		<category><![CDATA[XAI测试]]></category>
		<category><![CDATA[x平台]]></category>
		<category><![CDATA[X平台订阅]]></category>
		<category><![CDATA[世界工厂]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[合成数据]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型幻觉]]></category>
		<category><![CDATA[幻觉问题]]></category>
		<category><![CDATA[推理功能]]></category>
		<category><![CDATA[数据清洗问题]]></category>
		<category><![CDATA[智能模型]]></category>
		<category><![CDATA[暴力迭代]]></category>
		<category><![CDATA[最聪明模型]]></category>
		<category><![CDATA[深度学习]]></category>
		<category><![CDATA[深度研究功能]]></category>
		<category><![CDATA[马斯克]]></category>
		<category><![CDATA[马斯克AI]]></category>
		<category><![CDATA[马斯克的大模型]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1923</guid>

					<description><![CDATA[🚀 **我宣布！Grok 3 真的可以改变阶级！**

大家好，今天我要跟大家聊一聊马斯克的Grok 3，这款被马斯克誉为“世界上最聪明的大模型”的AI神器！😱

首先，Grok 3的发布可谓是科技界的一大盛事。在2月18号，马斯克和他的小伙伴们通过一场直播正式发布了Grok 3。作为一个科技迷，我当然第一时间去体验了这款新模型！🔍

Grok 3的功能非常强大，它有两个主要按钮：Deep Search和Think。Deep Search类似于OpenAI的Deep Research，可以搜索大量的内容并生成详细的报告。而Think则类似于推理模型，可以进行逻辑推理并生成简短文案。这两个功能可以单独使用，但不能同时使用。🤔

不过，Grok 3的体验也有一些小瑕疵。比如，在Deep Search时，生成的报告有时会出现内容重复的情况。而Think功能虽然能生成较为简洁的文案，但在编程方面的表现还有待提升。😅

总的来说，Grok 3作为一款新晋的大模型，虽然存在一些小问题，但其强大的功能和潜力不容小觑。如果你是科技爱好者，或者想要在AI领域有所突破，Grok 3绝对值得一试！💪

#Grok 3 #马斯克 #AI大模型 #科技前沿 #智能助手

Grok 3发布：Elon Musk称其为“宇宙最聪明”大模型，暴力出奇迹的xAI，是否可以成为AI时代的世界工厂？

马斯克自称Grok 3是“世界上最聪明的大模型”，但其功能和使用体验正引发广泛争议。Grok 3采用了高昂的订阅费用，仅支持高级用户访问，其深度研究（Deep Search）和推理（Think）功能虽颇具创新但问题频繁，如重复内容和严重幻觉。其基于20万张GPU暴力迭代的快速开发模式，更是被比喻为“AI界的世界工厂”，但用户体验仍未达到预期。文章详细剖析了Grok 3的架构、功能、发布策略以及与DeepSeek和其他开源模型的对比，探讨XAI未来的竞争策略与挑战。关键词：Grok 3、马斯克、XAI、DeepSeek、AI大模型、暴力迭代、幻觉问题、用户体验。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Grok 3发布：Elon Musk称其为“宇宙最聪明”大模型，暴力出奇迹的xAI，是否可以成为AI时代的世界工厂？" width="900" height="506" src="https://www.youtube.com/embed/qBvMVcGKFws?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>马斯克的Grok 3到底是不是世界上最聪明的大模型？暴力真的能出奇迹吗？大家好，欢迎收听老范讲故事的YouTube频道。世界上最聪明的大模型，这是马斯克对他自己家的Grok 3给的定义。如果有人不同意的话，那么会被开除的。因为XAI某一位员工在X上发帖说，Grok 3好像并没有那么聪明，然后就被XAI找到说，你要么删帖要么开除。后来这哥们想了想说，我得捍卫一下自己的言论自由，于是这哥们就被开除了。</p>



<p>在说所有细节之前，咱们先说说Grok 3到底怎么用。在2月18号北京时间中午12点的时候，马斯克跟另外三位小伙伴，一共四个人坐着开了场直播，把这个Grok 3发布了。我就四处去找，首先我是X每个月交8美金的Premium用户，我在X上使不了。X上你必须是40美元的Premium+用户，才可以去使用。在Grok的这个网站上呢，你也需要30美元一个月的账号才可以用。免费用户只能用Grok 2，API不充钱已经不让用了。如果是团队的话，至少花了5美元以上，每个月他会赠送你150美金，但前提呢是要跟XAI共享你的数据。</p>



<p>目前Grok 3的版本还没有上，你就算交钱了，你在XAI的网站上，也只能得到Grok 2的API，还要再等几周才会上线。Grok的苹果APP上面，是可以使用Grok 3 Beta这个版本的，即使是免费用户也可以去用。因为我呢对于XAI来说是一个免费用户，我就通过iOS，也就是iPhone和iPad这个版本上去，好好儿的测试了一下。后边儿呢咱们再去讲具体效果怎么样。</p>



<span id="more-1923"></span>



<p>Grok 3有哪些具体信息呢？在整个的发布过程中呢，并没有特别详细的讲，只是说，我各种排行榜都排在第一了。Grok 3，Grok 3 mini是怎么去排上去的，讲了很多这样的话。但是呢，这个系统本身的一些细节，并没有那么详细的公开。因为可能在Grok 3稳定下来以后，会把Grok 2开源。现在Grok 1是开源的。</p>



<p>Grok 2可能有一些细节会被披露出来，但是Grok 3的话应该很长一段时间不会有特别详细的细节披露出来。现在能够知道的就是，Grok 3应该也是一个MoE模型，跟DeepSeek是一样的。它到底有多少参数呢？现在猜测是有1.2万亿个参数，DeepSeek是6,710亿，它呢应该是在DeepSeek的基础上翻了一番。至于这个数字是不是准确，我不知道，因为呢我去问了Grok 3，也去问了ChatGPT，最终是给了我一个这样的数字，我并没有去查原文件。</p>



<p>Grok 3的使用感受到底是什么样的？它呢，下边有两个按钮，一个叫Deep Search，一个呢叫Think。Deep Search实际上就类似于OpenAI的Deep Research，就是这种深度研究，它会搜索大量的内容，然后呢，再去给你出报告。Think的话实际上就是类似于O1、O3这样的推理模型。这两个按钮它特别有意思，这两个按钮呢你可以都不按，也可以按其中一个，但是不允许两个都按。这个意思大家能够理解吧？你不能又要Think，又要Deep Search，这个事是不允许的。那你说我既不Think也不Deep Search，这事行不行？可以。</p>



<p>然后呢，我都试了一下。在Deep Search的时候，它会直接引用几十个甚至上百个网页，非常非常多的网页，然后呢给你一个似模似样的报告，很长，格式非常非常好的一份报告。在Think的时候呢也会搜索，并不是自己去瞎编的，他呢，会搜索25个网页，以及呢X上的帖子。大家注意，Deep Search时候是不搜索X的，在Think的时候是会搜索25个网页，加上X上的可能5个帖子吧，反正我搜了几次都是5个帖子，然后给你进行一定的推理，总结出一个小的文案出来。这就是这两个功能。如果两个都不选，我既不Think也不Deep Search，它呢就不联网了，就直接是给你编一个结果出来。</p>



<p>大家注意，所有的大模型，甭管是谁家模型多聪明，你让他直接编出来的这个结果，都是最不靠谱的。那么，他这三个功能，就是两个都不选，或者选其中任何一个。这三个功能呢，特别有意思的一点是什么？他可以混用。</p>



<p>在OpenAI上呢，这种模型混用是比较严格的。你如果开始一个新话题，选择了一个模型，提了几个问题之后，你现在想去切模型的时候，你这个模型，比如说允许有图片呢，下面你要去切的时候，只允许再切换到允许图片的模型。它不允许你切换到不允许读图片的模型去。这个是有限制的。但是呢，在Grok里面它是没有限制的。就是你随时可以开始新对话，对话的过程中可以随时切模型，你可以来回切来切去。</p>



<p>但是呢，在这个过程中呢，有一些不是那么有趣的地方是什么？就是如果你俩都不点上来，直接让模型去编，他就不联网了。他编完第一句以后呢，你说我现在要开始进行深度的搜索了，deep search了，这个时候他也不联了。或者说我现在需要think了，他也不会去联网，他就根据现有的内容接着编下去。他是这样的一种过程。</p>



<p>但如果你是以deep search开始的，那么think的时候呢，他就不去搜索帖子，因为deep search是不搜索X的。如果你是以deep search或者think开始，然后你最后切换回到完全编的，既不deep search，也不think的这样的一个裸模型，去输出的时候，继续搜索。所以它整个的逻辑，还稍微有一点点小混乱吧。</p>



<p>那么，Grok 3到底是不是宇宙第一聪明的这个模型呢？因为你如果用iOS APP你去选的时候，后面会写一个叫smartest，最聪明的。它是Grok 3 beta，后边写一个小括号，smartest，这个是最聪明的。到底是不是？我个人感受呢，现在相差还比较远。为什么呢？为了准备这期节目呢，我其实用Grok 3去做了很多的工作，包括是他的deep search或者think。但是最终呢。</p>



<p>Grok3生成的所有结果都被我扔掉了。最后的内容还是靠豆包和GPT search来完成的。原因也很简单，Grok 3 deep search现在报告的格式非常好，非常中规中矩，但是大量的段落是重复的。前边写了一遍，后边车轱辘话又写了一遍，用不同的格式，用同样的话来回来去说，这个是很讨厌的。</p>



<p>还有一个问题是幻觉大到完全无法使用的一个状态。比如说，我问他XAI现在有多少人了，图说现在有900多人了。后来我问了其他几个模型，都告诉我是有100多人，这个可能还是稍微靠谱一点点。都是联网搜索吗？你都不是自己瞎编的，那我不知道他这个900多人这个数是哪来的。</p>



<p>然后我说四个人在上面开发布会嘛，中间两个人是华人。这两天在国内又嗨起来了，说你看马斯克发布Grok3的时候，马斯克只能在一边点头，点头机器。中间是做C位的两个都是华人，旁边还有一个白人。那我就问他，我说这俩华人到底是谁，什么教育背景，然后就开始给我胡说八道。他也是举的XAI里边的一些华人高管，但是呢并不是当时坐在台上这两个人。</p>



<p>发生这种事情的原因很简单，就是他在deep search的时候，一下瞪了可能几十个上百个网页，回来拿这么多个网页进行总结的时候呢，把内容搞串了，实际上就产生幻觉嘛，就完全没法使。</p>



<p>然后呢，我去尝试了一下think。think呢其实没有特别细致的测试，为什么呢？本来我想去让他做编程，但是呢，他没有API。你没有API的话，就没有办法接到IDE里边去，你没办法作为插件接进去，就没有办法详细地参与到我的这整个的编程过程里头去。我做了些简单的测试，但是感觉呢think模型对于各种编程的复杂的环境，和各种的版本和类库的话，并不是那么熟悉。这块的话可能以后等他有了API以后，再去做详细测试了。直接生成还过得去，就是如果两个都不点，让他直接生成。但是呢，因为在手机上用，并没有办法进行。</p>



<p>特别大规模的使用和测试，现在看来呢，XAI的Grok 3采用的是叫分梯度发布的一个方式。就是说，我先发布一点，然后慢慢地让更多的人能用，再慢慢地发布更多的内容出来，然后不断地去迭代。他现在干这样的事情。现在呢，就是手机用户可以用。那么手机用户呢，第一个用户量不会特别大，而且在这个时候，可能还能够为Grok APP带来一批的下载，这个也算是一个小心思吧。</p>



<p>在手机用户使用的过程中呢，你不会给他特别繁重的任务。因为你要跟他做这种很复杂的沟通的话，你需要打好多字，举了个手机在这噼里啪啦打字，很费劲的。你像我，为了做这个测试，最后是把我的iPad接到了机械键盘上，夸啦夸啦往里打字，这个还是能够问一些稍微复杂一点东西。要真是拿着手机，在那个屏幕上打字的话，这个还是挺费劲的。还有什么呢，就是不会有太正式的任务是通过手机来进行的。比较正式的任务一般会通过网页，通过电脑来去工作。</p>



<p>Grok跟X网站上还是有一些付费的人能够使用的。你不能说老范你没交钱，你就说这玩意不好使。这些比较高付费的用户，比如说在X平台上交了40美金一个月的，或者在Grok平台上交了30美金一个月的，这些用户呢，他是可以去用的。但是这些用户呢，数量肯定会少很多。还有一点呢，就是皇帝的新衣嘛，我付了这么多钱了，我就不能允许任何人说我是傻子，我一定要说这个钱付的是值的。所以呢，就算他们遇到问题了，上来骂街的可能性也不是那么大。这个就是马斯克当前发布了一个版本，比较聪明的地方吧。</p>



<p>后面语音模式的话，可能还要再等一周。我估计语音识别率这块还有待优化吧，因为语音你认不出来就是认不出来，还有口音还有乱七八糟这种事情。咱们再看看，后边会做出一个什么样的结果出来。API的话，还需要再等几周。为什么API要这么费劲，原因呢是现在大家只能看马斯克官方的排行榜，我的测试数据是什么样的，排行榜是什么样的，你自己没法去测取，给你一个手机版本。</p>



<p>或者给你一个网页版本。你现在想把这几千道题输进去，测试这个事太费劲了。你要想测试这东西，必须要拿API写程序去测。这个过程其实有点像法拉利的一个跑车。法拉利就说了，这个东西太贵，而且做测速的时候太危险。如果你自己去测的话，非常不安全，而且保险公司也不允许我们干这个事情。所以，法拉利跑车的最高极速，只有法拉利官方出的这个版本是唯一标准，任何人不得私自去测试法拉利跑车的最高极速。这个事情我们不承认，而且这个事我们也不允许。</p>



<p>现在，XAI的Grok也就是在这样的一个阶段。等以后API上来以后，每一个人都会自己去跑各种各样的测试，或者做多模型的输出结果比较。到那个时候，丑媳妇就真的要见公婆了。下一步的话是要开源Grok 2。DeepSeek是上来直接把最新的模型开源了，而且上来说，你们每家部署的跟我现在自己官网上跑的是一模一样，没有任何差别的。而且不断的有新的技术演进，不断的有新的技术新发现，都直接发论文发出来了。</p>



<p>但是，马斯克永远是开源上一代模型。就是他在用Grok 2的时候，他把Grok 1开源了。Grok 3能够稳定正常运转的时候，他会把Grok 2开源出来，可能还要再等那么几周或者是几个月的时间。山姆·奥特曼现在也惦记开源，刚在X平台上发了帖子说：“唉，咱们投个票吧，你们觉得OpenAI应该开源什么样的模型出来？我们是不是应该开源一个在PC本地就可以跑的O3 mini模型出来，还是说我可以在手机端跑一个这个小模型出来？”</p>



<p>他们是准备走谷歌跟微软这条路的。谷歌也是这样，它有一个叫Gemmar的模型，比较小的这个模型是开源的，主要也是让大家在端侧来用的。还有，微软做的这个Phi模型，这个模型也是开源的，也是让大家在端侧去使用的。但是我觉得，OpenAI如果真的把它的O3的模型，或者哪怕是O3 mini的模型拿出来开源了，或者让大家能用上了。</p>



<p>这也是一个值得期待的事情。讲远了，再往后呢？发布会上，中间两个华人做C位了。这种事情呢，肯定会引起国内的热议嘛。你看，还得看华人吧？华人也比较好认嘛，中国脸。</p>



<p>台上是四个人。第一个是马斯克，马斯克坐一个角嘛。另外一个角呢，这个人叫巴布斯基，这个人呢，是个俄罗斯人。中间的两个人呢，一个呢，叫做吴宇怀，XAI的合伙人，浙江人，在国内上完初中，15岁去了加拿大多伦多大学的博士，后来呢，是斯坦福大学的博士后，现在是XAI的合伙人。还有一个呢，叫Jamie BA，这个人呢，没有看到他前面的一些履历，是多伦多大学计算机科学系的助理教授，AI教父Joffrey Hinton的学生。</p>



<p>等于一边一个白人，中间两个华人。但其实你要再仔细看一下，这个是全世界人民在美国进行AI创业。一个俄罗斯人，剩下三个可能都是加拿大人。马斯克自己其实是有美国国籍、加拿大国籍和南非国籍的。中间两个，一个是多伦多大学的博士，他大概从15岁就开始在加拿大生活。另外一个的话，Jamie BA是多伦多大学计算机科学系的助理教授。所以有可能，这台上坐的是三个加拿大人和一个俄罗斯人。只是看着脸的话，是这个两个白人和两个华人。</p>



<p>那么，XAI未来的策略会是什么样的呢？XAI现在应该也就是100多人吧。它具体是多少，这个数字呢，并没有那么确定。但我还是相信GPT search给我的结果吧，就是不要说900多人了，就是100多人的一个公司。这种公司呢，不太可能进行全面开花，七扯咔嚓我把整个的C端到B端所有东西都做起来。这个事其实有点难度。</p>



<p>20万张卡这个事呢，其实是别人都不具备的这个条件。它就可以进行快速的迭代。各种方法只要确认了，说我知道这个方法是什么样的。比如说DeepSeek出了论文了，出了开源模型了，那我方法确认以后，我就可以快速的在20万张卡上给你重现出来，甚至把你的参数翻多少倍再重现一遍。这个事他都是可以干的。这呢，就是暴力出奇迹。</p>



<p>就会有这样的结果。这个过程其实大家看看有点像什么呀？是不是有点像世界工厂？别人只要做出来了，反正我这有的是生产力，快速的复制、迭代更新就完了。所以，这个应该就是AI未来的路，就是甭管谁做出来的东西，我都可以快速验证、快速改进我的模型。</p>



<p>而且呢，它使用了完全的合成数据进行训练，可能有很少一部分真实数据吧，绝大部分数据都是合成数据。所谓合成数据呢，就是由其他大模型生成的数据。他通过一定的策略，要求其他大模型去给他吐数据出来，然后拿这个模型去训练。</p>



<p>Grok 3一旦使用了合同数据的话，会不断的说自己是Grok 2，或者说自己遵守open AI标准。这个事情你就避免不了，因为是用别的模型生成的数据嘛。虽然XAI说我们在生成数据的过程中呢，我们还进行了反复的检查，有错误都给去处理掉了，但是他不断的说自己是Grok2，说自己是遵守open AI的安全准则，这件事来说呢清洗的还不够干净。</p>



<p>Grok3呢，应该只做了很少的对齐和测试，就扔出来了。后面呢，是准备快速迭代的。你如果现在去问Grok3，或者是问open AI的话，他们都会告诉你说，Grok3本身呢安全性还是不错的。但是有一点是不可否认的，他训练完成一个月就发布了，训练完了以后，只是在XAI内部测试了两周，就直接把产品扔出来了。这个是挺难以想象的，因为像open AI这样的这种模型，它每一次训练完了以后，可能后边都是需要用年为单位去进行对抗测试，或者说进行调整，然后才敢把这东西放出来。现在XAI就是我这边训练完了，我就把它扔出来了。</p>



<p>而现在呢，对外公布的是，Grok呢是通过思维列进行道德商值评测，就是它等于是一个思考过程吧。那我在思考的时候，我就把所有的输入输出的信息，进行道德商值的加权平均，或者说做一个加权复合吧，做一个这样的这个分数出来。如果这个分数达到一定的阈值以后，就禁止回答了。他大概是用通过这种方式来去工作的。</p>



<p>但是呢，并没有进行大规模的真人对抗测试。当然了，这个东西你说以后是不是都需要像OpenAI这么干呢？不好说。OpenAI现在还没有特别大的问题，但是谷歌就属于有点走火入魔了，直接被忽悠瘸了那种，就是画出黑人华盛顿那样的，这个就属于忽悠瘸了。未来可能大家都会去像XAI这样往前走。其实像DeepSeek也是这样，它从2.5到3.0之间的发布，也是大概一个多月或者一个月左右的时间就扔出来了，所以都不会做特别详细的或者长时间的这种真人对抗。未来可能都是通过逻辑的方式，让模型的安全性达到一个可以接受的程度就完了。我不保证这东西绝对安全，大家凑合使就可以了。我在不进行严格测试的情况下，不断地去迭代，这个其实才是DeepSeek也好，像Grok也好，最大的一个优势。每个小时都在改进和升级，全世界都在开发新的算法和架构嘛。马斯克有20万张卡，就可以把所有的这些公开的信息都在我这20万张卡里头去试一下。别人只能进行小规模测试的时候，XAI就可以进行全量测试，甚至我可以在你原来的数据基础上，用两三倍或者更大的数据集进行测试，得到一个世界上最聪明的大模型。所以我说这个就像中国世界工厂的工作方式是一模一样的。</p>



<p>那么XAI的下一步会是什么样呢？应该是会通过快速迭代，把当前的模型整个先稳定下来。现在已经可能是世界上最聪明的模型了，咱们就相信马斯克说的吧。但是呢，这个世界上最聪明的模型还经常会胡说八道。当它的模型彻底稳定下来，基本上可以达到可用的状态以后，下一步其实呢都是流量大战。这些人去搞C端估计应该是比较难，因为就100来口子人吧。最新的模型不开源，你去在B端竞争的话，也是有一定难度的。你比如说我现在一个公司里边需要去部署大模型了，那我不能去部署Grok 2吧，我肯定是部署DeepSeek V3或者DeepSeek R1这样的模型。</p>



<p>因为这是当前开源的最好模型，所以在这一块儿的竞争上也会有一些难度。那么，XAI的策略应该是依靠不断的快速迭代更新，始终保持自己是世界上最聪明的模型，这样的一个位置，吸引部分B端和C端的用户加入进来。自己虽然是有一定的流量，但是X自己的流量对于XAI来说应该是不够的，因为Open AI已经花费1,400万美金打超级碗广告了。所以，现在的AI行业已经进入了一个流量争夺的时代。在这个时候，可以靠产品好，靠模型最聪明，吸引一部分用户进来。像DeepSeek美国排行榜排第一，就是因为模型好，不是因为其他任何原因。他也没有那么多钱去烧这个流量去，他也不可能花1,400万美金去砸超级碗。XAI可能以后也只能是向这个方向走了。后面的路其实并不明朗，怎么依靠XAI把这个钱挣回来，现在还不清楚，还要等马斯克脑筋急转弯，让大家眼前一亮。</p>



<p>好，这就是我们今天讲的XAI的Grok 3大模型，到底是不是世界上最聪明的模型？暴力真的可以出奇迹吗？感谢大家收听，请帮忙点赞、点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>鲶鱼效应搅翻AI江湖：DeepSeek 671B开源来袭，GPT-5和百度文心一言迎巨大挑战！</title>
		<link>https://lukefan.com/2025/02/18/%e9%b2%b6%e9%b1%bc%e6%95%88%e5%ba%94%e6%90%85%e7%bf%bbai%e6%b1%9f%e6%b9%96%ef%bc%9adeepseek-671b%e5%bc%80%e6%ba%90%e6%9d%a5%e8%a2%ad%ef%bc%8cgpt-5%e5%92%8c%e7%99%be%e5%ba%a6%e6%96%87%e5%bf%83%e4%b8%80/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 18 Feb 2025 00:46:01 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[671B开源模型]]></category>
		<category><![CDATA[AI免费服务]]></category>
		<category><![CDATA[AI发展趋势]]></category>
		<category><![CDATA[AI商业模式创新]]></category>
		<category><![CDATA[AI垄断]]></category>
		<category><![CDATA[AI安全性]]></category>
		<category><![CDATA[AI对话模型]]></category>
		<category><![CDATA[AI幻觉问题]]></category>
		<category><![CDATA[AI广告收入]]></category>
		<category><![CDATA[AI开源]]></category>
		<category><![CDATA[AI推理模型]]></category>
		<category><![CDATA[AI未来发展]]></category>
		<category><![CDATA[AI模型对齐]]></category>
		<category><![CDATA[AI流量焦虑]]></category>
		<category><![CDATA[AI用户忠诚度]]></category>
		<category><![CDATA[AI盈利困局]]></category>
		<category><![CDATA[AI系统集成]]></category>
		<category><![CDATA[AI行业竞争]]></category>
		<category><![CDATA[AI语音功能]]></category>
		<category><![CDATA[AI黑箱子]]></category>
		<category><![CDATA[B端市场]]></category>
		<category><![CDATA[Claude 4发布时间]]></category>
		<category><![CDATA[Claude4]]></category>
		<category><![CDATA[C端市场]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek API]]></category>
		<category><![CDATA[DeepSeek R1一体机]]></category>
		<category><![CDATA[DeepSeek安全性]]></category>
		<category><![CDATA[DeepSeek对OpenAI影响]]></category>
		<category><![CDATA[Gemini 2.0]]></category>
		<category><![CDATA[Google AI Studio]]></category>
		<category><![CDATA[GPT-4.5]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[GPT-5功能]]></category>
		<category><![CDATA[Llama4]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI盈利]]></category>
		<category><![CDATA[OpenAI订阅]]></category>
		<category><![CDATA[ToB市场]]></category>
		<category><![CDATA[ToB部署]]></category>
		<category><![CDATA[ToC市场]]></category>
		<category><![CDATA[ToC用户体验]]></category>
		<category><![CDATA[多模态生成]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型商业模式]]></category>
		<category><![CDATA[大模型统一接口]]></category>
		<category><![CDATA[大模型计算成本]]></category>
		<category><![CDATA[山姆·奥特曼]]></category>
		<category><![CDATA[开放源代码]]></category>
		<category><![CDATA[开源大模型]]></category>
		<category><![CDATA[推广成本]]></category>
		<category><![CDATA[推理成本]]></category>
		<category><![CDATA[推理模型O系]]></category>
		<category><![CDATA[文心一言4.0]]></category>
		<category><![CDATA[文心一言4.5]]></category>
		<category><![CDATA[文心一言Turbo]]></category>
		<category><![CDATA[文心一言免费]]></category>
		<category><![CDATA[李彦宏]]></category>
		<category><![CDATA[百度AI]]></category>
		<category><![CDATA[百度搜索广告]]></category>
		<category><![CDATA[百度文心一言]]></category>
		<category><![CDATA[谷歌AI策略]]></category>
		<category><![CDATA[谷歌Gemini]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1920</guid>

					<description><![CDATA[啊啊啊啊啊啊啊！家人们，今天咱们来聊聊最近大模型赛道的大新闻！DeepSeek彻底改变了游戏规则，GPT5也即将发布，百度还要免费开源文心一言！这一波操作简直让人眼花缭乱！🤯

DeepSeek，这个满血版671B的开源模型，彻底搅浑了大模型市场的水！OpenAI和谷歌都被它搞得焦头烂额。OpenAI的20美金订阅模式已经被证明是个大坑，谷歌也在努力往外爬，而DeepSeek却凭借其完全可控的开源模型，迅速占领了B端市场。中国的DeepSeek一体机卖得火爆，虽然价格高达三四百万，但大企业们依然愿意买单！💸

GPT5也即将发布，山姆·奥特曼终于要放大招了！从GPT4到GPT5，OpenAI的路线彻底改变，免费用户将能够使用全部功能，这无疑是对自身商业模式的巨大挑战。但是，GPT5的核心问题依然是如何盈利，毕竟C端用户忠诚度低，B端市场又面临开源模型的激烈竞争。🚀

百度也不甘示弱，宣布文心一言将免费开源！李彦宏这一波操作简直是180度大转弯，直接颠覆了之前的收费模式。但百度的核心问题依然是搜索引擎广告收入的流失，如何在大模型市场中找到新的盈利模式，依然是他们面临的巨大挑战。🔍

未来的大模型市场将如何发展？DeepSeek、GPT5、百度文心一言，谁将主宰未来？家人们，你们怎么看？快来评论区讨论一下吧！👇

#DeepSeek #GPT5 #百度文心一言 #大模型 #AI #科技前沿

鲶鱼效应搅翻AI江湖：DeepSeek 671B开源来袭，GPT-5和百度文心一言迎巨大挑战！

DeepSeek带来671B满血版开源模型，引发AI行业重大震荡，直接冲击OpenAI、百度等巨头的ToB和ToC市场。OpenAI推出GPT-4.5和GPT-5，转向更聪明的推理模型统一接口，但同时面临高推理成本和用户流失的挑战；百度文心一言则宣布全面免费和开源，但遭遇搜索广告收入危机。DeepSeek的高性价比部署方案，以及开源趋势，引发对行业变革的深思。大模型市场进入空前竞争时代，盈利模式如何创新，仍是未解难题。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="鲶鱼效应搅翻AI江湖：DeepSeek 671B开源来袭，GPT-5和百度文心一言迎巨大挑战！" width="900" height="506" src="https://www.youtube.com/embed/kAeOCWFBJr4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲DeepSeek。这条鲶鱼搅浑了水，GPT5要来了，百度也要免费开源了，到底是一个什么样的情况？大模型这个赛道未来会怎么去发展？</p>



<p>DeepSeek呢，算是彻底改变了游戏规则。OpenAI给整个行业挖的坑，到现在呢，还有一些公司没查出来呢。什么坑？就是客户端这个订阅20美金一个月这个坑。这个其实是一个非常失败的商业模式。谷歌到现在还在往外爬，因为谷歌他其实自己不太想爬出来。为什么？因为他一旦爬出来以后的话，谷歌搜索的广告收入就没了，只能在那里头装聋作哑了。Perplexity到现在也还在思考，到底是不是要爬出来。</p>



<p>大家有没有想过一个问题？开源模型，因为DeepSeek是满血版671B的开源模型，它对于OpenAI的伤害，到底是ToB的伤害大，还是ToC的伤害大？这是一个大家值得去思考的事情。虽然现在DeepSeek在很多的C端有非常大的影响力，就是很多的个人去下载这个东西去用去，但其实真正的开源模型影响最大的是B端。我这是一个自己的公司，我是一个政府项目，或者是一个什么样的商业相关的事情，我要去使用大模型的时候，一定是会优先去选择这种完全可控的开源模型，而不是说我去用人家的闭源的，买人家API。因为你一旦是有开源模型的话，你就可以选择完全私有部署，我自己买台服务器往里装就完了。</p>



<span id="more-1920"></span>



<p>现在中国卖的特别好的就是DeepSeek一体机。什么叫DeepSeek一体机？就是它一个机器里边给你塞满了，比如说8块或者16块升腾910，华为的这个算力卡，可以把DeepSeek 671B的这样的模型直接塞进去，就是一台机器搞定。但是这机器很贵，这一台机器大概是三四百万人民币。但很多的大企业说，我们愿意去花这个钱。中国的那些大企业，特别是央国企，他们花这种钱还是蛮开心的。花完了以后，华为就可以发挥他们比较擅长的事情。</p>



<p>做这种ToB销售、做大客户销售，剩下的这个我们就不能细说了。所以一旦是有这种完全开源的大模型，而且是跟你这个OpenAI差不多功能的这种大模型的话，对于OpenAI也好，对于谷歌也好，最大的伤害是B端的。C端的其实你说有伤害吗？有，但是C端的人呢，主要是凑个热闹，我们上去看一下就可以了，发现“哎，慢了吧唧不太好使呢”，就跑掉了，也就这样。但是B端真的是差异很大，现在大家都已经开始动起来了。谷歌的Gemini 2.0 Pro已经发出来了，而且谷歌Gemini 2.0，就是Flash、Flash light什么一大堆的版本出来，那是真便宜，而且是比DeepSeek还便宜的一个价格。你不是跟我卷价格吗？我卷的比你还低，现在是谷歌的应对方式。</p>



<p>而山姆·奥特曼的话，也终于要发布他的GPT-5了。这个是路线的一个彻底改变，从去年年底12天连续的挤牙膏，到现在突然说“哎，GPT-4.5要出来了，马上GPT-5也要出来了”，这个转变是非常非常巨大的。而且我相信到目前为止，这个弯应该没有转完，这只是转了其中的一半，剩下的我们还要再等它继续去发布，还有一些新的消息，可能未来一段时间会出来。为什么说这个弯还没有转完呢？因为你还得开源一部分，你光说我4.5和5这事不行。到目前为止，OpenAI到底怎么开源这件事，山姆·奥特曼都没说，这个肯定是有问题的。</p>



<p>而且山姆·奥特曼也好，OpenAI也好，现在已经开始有流量焦虑了，就是他们的流量到底了，靠自然增长涨不上去了。所以他们1,400万美金，跑到超级碗去打广告去了。他们等于进入到下一个阶段了，原来就是我自然增长，再涨上去就完了，现在涨不动了。而且呢，除了出4.5和5之外，还要求什么呢？就是他还说了，我们要开放全部的功能给免费用户使用，不用再去说一定要交钱了。这个是非常大的变化，就是你甭管是GPT-4.5还是GPT-5，什么搜索、什么生成图片，这个东西免费用户都可以用起来。</p>



<p>这个是真的要革自己的命的路子了。GPT-4O以后，其实再往后发展，这个事本身是挺难的。就是普通的这种对话模型，在GPT-4O出来以后，我们就做过这个结论。其实GPT-4到4O之间，主要增加的东西是什么？是语音的部分，是多模态的部分，高级语音功能。为什么涨不上去呢？原因就是你再往上涨，大家其实没法欣赏了。</p>



<p>马上要跟大家见面的GPT-4.5，就是说未来几周就会见面。那么4.5代表的是什么意思？有提升，但是呢，提升又不够大，所以它的名字叫4.5。越往后发展，这个提升就越难被普通大众所感知。你说我今天去跟一个出租车司机聊个天，哎，聊得还挺开心。待会你在这给我做一个博士，我跟他聊天发现聊不到一块去。人家说什么我不懂，我说什么，人家都是像看傻子一样看着我。那这个事肯定是没法整。因为你GPT这种东西从4到4.5或者到5，你变得更聪明了以后，是不是就是我说点什么，对面都像看傻子一样看着我呢？这个就会很痛苦。</p>



<p>而且加入搜索以后的话，其实对于大模型本身，就没有那么高的要求。他只要把我们的内容通过互联网搜索以后，再去进行一个总结归纳的话，他对于模型本身的能力要求，其实已经下降了。还有一个问题是什么？就是越聪明的模型，对于安全和对齐就越费劲。我还记得在GPT-3.5出来的时候，他们就说说，我们这个模型其实训出来一年多了。那这一年多干嘛呢？就是不停的在去做对齐，做安全性的这种防护，不能让人去攻破它呀。而且发出来以后还不停的有人上来说，我奶奶告诉我怎么样，或者是我做了个梦造原子弹了什么，还不停的去绕他。绕了这么多年了以后肯定是攒的，各种各样的防越狱的手段越来越多。</p>



<p>那么现在GPT-4.5可能早就训练出来，但是他就为什么没有办法把它拿出来？就是没法去搞定这个安全措施。原来可能还要再去蘑菇很长时间，内部才能达成一致，说我们把它放出来。现在DeepSeek来了以后说算了，不用费劲了，咱们拿出去用吧。</p>



<p>其实，在Llama出来的时候，OpenAI这边就应该想明白了。就是在这个时候再把它做这个，那么安全其实意义不大。因为有开源的，你这个做的再安全都没有什么意义。</p>



<p>DeepSeek在安全跟对齐这方面呢，有点像拼多多的商品。原来很多人说DeepSeek是AI界的拼多多，这个是有道理的。拼多多的商品有什么特点？能用，这个东西不是说不能用，能用便宜，但是安全性跟稳定性呢，就没有那么讲究。你去拿DeepSeek，特别是DeepSeek的API，基本上是百无禁忌的。一个模型放在那里，那你说这个大模型这样百无禁忌，他有问题，你万一说点不该说的怎么办？</p>



<p>但是你想想，我们今天相当于雇了个人在家里干活。我们希望这个人的道德标准是由我们掌握的，而不是由DeepSeek或者OpenAI，由对方来掌握的。我觉得宁肯找一个百无禁忌的人回来，我们重新给他立规矩，也不要说哎，已经训练好了一个道德规范，在进我们家来。这个还是有区别的。而且现在大模型安全性这一块事，大家都还在摸索，谁也没有搞明白，到底怎么能够让大模型彻底安全下来。现在就是一抓就死，一放就乱的这么一个状态。DeepSeek就属于彻底乱带了，像Claude呀OpenAI，都属于抓的相对来说比较死。</p>



<p>但是我觉得对于很多ToB，就是自己可以去做这个开发的，这些用户来说，我自己把握，你不要指手画脚。GPT4.5这个呢，应该就是OpenAI的最后一个对话模型了，再往后不做了。再往后的所有方向都是向O系列，也就是推理模型的方向前进了。那么GPT5是什么？GPT5其实是不用太期待的一个东西，它呢应该会在几周或者几个月之后发布。这个名字呢应该是逼出来的，就如果没有人逼它，我估计它也就不叫GPT5了。GPT4.5发完就完事了，接着做O3、O4、O5，就这么发下去了。那现在不行了，要改方向，新的方向就是GPT5。那这个名字到底是什么意思呢？其实GP5不是一个模型。</p>



<p>它是一个AI agent的聚合体。他后面有大量的O系列模型，如O1、O3等，这些模型在后面盯着。然后，4.5这样的对话模型也在后面盯着。他呢，是每一次接到一个问题以后，根据用户的意图来判断，说你到底想干嘛，然后再调用不同的模型来解决用户的需求。</p>



<p>很多人使用OpenAI以后说很讨厌，说你这个上面有一个叫模型选择器的东西。你上来以后先要选，我到底是用4回答问题、4o回答问题、4O mini，还是用O1、O3，用哪个去回答问题。选来选去的很麻烦。现在甭选了，我们就统一入口。你就来问，问完了以后我替你选，替你去回答就完事了。你就不用管后边我是怎么调度的了。这个呢，算是又一次指明了方向。</p>



<p>OpenAI说这个话之前，或者山姆·奥特曼说这个话之前，谷歌呢，还是发了一大堆的模型出来。他那个模型叫Gemini 2.0 Flash、Gemini 2.0 Flash light、Gemini 2.0 Pro、Gemini 2.0 Flash thinking，等于是这个系列的模型出了一堆。OpenAI说别费劲，咱们统一接口。而且呢，所有功能都统一放在一起。像去年其实我讲过好多次，就OpenAI这个模型不支持上传图片，那个模型不支持搜索，再了一个模型不支持什么canvas，就是那种画板。每一个都是很别扭。现在说，哎都有，GPT5所有的这些功能，什么搜索、高级语音、多模态生成、生成视频、生成音频、图片识别、文件上传、canvas，统统都放在一起。就是你就不用管它后边儿到底是谁了，我给你搁一块儿完事儿了。这个还是非常棒的一个事情。</p>



<p>所有免费用户都可以使用全部的功能。那你说还有没有人付费呢？付费用户是可以根据付费的情况，获得更聪明的回答，或者是更多步骤的回复。但这个效果怎么样呢？我觉得还有待观察。我现在感觉，OpenAI又在给大家挖坑儿了。就前面它这个一个月20美金，我就觉得是个大坑儿。</p>



<p>免费用户获得这个比较笨的回答，付费用户获得比较聪明的回答。这件事我觉得被人歧视了，总觉得浑身不舒服。当然了，我现在已经准备要退定它了，一个月20美金，可能等到GPT5出来的时候我就退定了。以后呢，就是有钱人获得更聪明的AI服务，穷人的话面对的就是敷衍了事的扑克脸了。未来只有O系的推理模型还会继续发展，这种普通对话模型到4.5到头了，到此结束了。</p>



<p>为什么是走这条路呢？你说我们真的需要那么多工程师吗？真的需要去解决什么全人类的这个疾病问题吗？其实不是。这种推理模型有一个很大的优势是什么？它可以一部分地解决幻觉的问题。有的时候说真话，有的时候说假话，或者是有的时候一本正经胡说八道。这个事大家是受不了的。大家要注意AI犯错误的方式跟人犯错误的方式是完全不一样的。</p>



<p>人类犯错误的方式是什么？就是我们会在不熟悉的领域犯错误，还有什么？在疲惫的状态下容易犯错误。而我状态好的时候可能说的比较顺溜。人呢，在不熟悉的领域或者是疲惫状态不好的时候，情绪能表达出来，他会犹犹豫豫的，说的不是那么肯定。所以大家也比较容易判断你这个答案是不是靠谱。有很多人就他自己也不懂，这个东西到底对不对，但是只看对方的这个语气语调，就能猜出来：“哦，这个事原来你也不太拿准。”</p>



<p>人呢，在被反复询问的时候其实会不耐烦，这都是人的特性。AI正好反过来，它呢是任何时候犯错误的概率都差不多，就是甭管这东西你熟还是不熟，AI其实没有什么状态的问题，他都会犯错，而且犯错误的概率是一样的。而且呢，人犯错误的时候会显得犹疑不定，AI呢不管是不是犯错误都一本正经，所以我们经常说他一本正经胡说八道嘛。</p>



<p>当然AI有一个好处是什么？他被反复询问的时候不会不耐烦。所以推理模型呢，他就可以解决这个问题。一个问题我问你3遍，问你5遍，再拿这些结果进行判断，看看是不是一个靠谱的结果。所以这个就是O系推理模型，大家很努力地再去往前推这个事情的原因。</p>



<p>因为我最近一段时间是 DeepSeek R1 用的比较多。O1 出来，O3 出来，其实我用的都比较少。但是 DeepSeek 出来了以后，我还是很努力的用了一下。我发现就是很多事情，不是一些数学问题、物理问题、工程问题，就是普通的这种生活中的问题，你扔给推理模型去干，效果也挺好的。唯一缺点就是慢，还有一个就是啰里八嗦的。中间上这个思维链这个事是比较讨厌的，其他的都还可以。</p>



<p>再往后呢，就是 API 可能会比较麻烦。现在山姆奥特曼就是说以后 API 也是统一接口，但这个就很麻烦了。为什么？就是你可能问了一个很简单的问题，不定他哪根筋搭错了，直接跳到推理模型那边去干活去了。那你可能这一个问题就直接几千个 TOKEN，上万个 TOKEN 就直接干掉了，而且出了一大堆啰里八嗦的东西，你也不知道他在说什么。这个事是比较讨厌的。所以我估计 API 可能还是分模型去处理的，这个应该是让我们自己去选择。你不能说你替我选完了就直接干了。</p>



<p>所以呢，GPT5 呢其实是一个黑箱子。每个用户提问之前，也不知道会为哪个模型去服务，也不知道会获得多大的算力，或者是推理预算。免费用户获得的服务可能会不太稳定。就是用的人少，没准多给你思考一下；用的人多就拉倒了。就跟我们去医院看病似的，如果一大堆人在外面排着队呢，那大夫肯定可不耐烦了。但是你说哎，我有钱，我去看这个特需门诊，那个大夫肯定脸上笑出花来，说您哪不舒服，慢慢跟你说一下。当然我每次去看病的时候，那个大夫看我一眼说，哎，该减肥了。这个也是让我比较不爽的一个事情了。</p>



<p>现在呢，对于 B 端市场，统一黑箱的这个方式其实并不是一个特别好的办法。为什么？因为弊端市场他肯定还是要先试用，测试完了以后，再去确定说我是不是要去下单。那你现在没有什么可以定制的地方，上来给你一黑箱子，结果你说我弊端市场要测试的时候，遇到一个脑子不太灵光的扑克脸，那这个成单的可能性就会下降很多。统一接口为什么费劲？就是原来……</p>



<p>为什么大家不是做这种统一的接口？原因呢，是这样：就是大模型跟传统软件是不一样的。传统软件是模块化的，大家可以拼来拼去的。大模型呢，是训练完了你就不能拆分拆迭代了。说我训练完一整块，说我把胸间哪一块拆出来改一改行不行？不行，训练完了就是一整块，它是不允许动的。每一个模型训练完了以后，都需要单独的调整，才能够接上各种外挂。这个是大模型跟传统软件之间的一个比较大的差异。传统软件就是模块化随意增减，大模型是一次成型不可分拆。</p>



<p>那么，你说到底是一个诸葛亮厉害，还是三个臭皮匠厉害呢？像我们以前一起合作或者带团队干活的时候，都会理解这件事，就是沟通确认这个成本是很高，效率是很低的。很多事情都是说，哎，干脆一人把他干完了，也比跟很多人商量着做要快很多。所以呢，如果你有一个特别特别强的基座模型，要肯定要比一大堆的模型凑一块干活要顺畅的多。大模型之间的配合呢，其实更像是一堆人商量着干活。就是为什么原来没有统一接口，大家都是一大堆的模型让你去选，这个也是有原因的。</p>



<p>GPT5的这种方式呢，为什么说我感觉它像一个坑呢？这是一种突c的全能型助手，就是你甭管是问他什么问题，他都来给你判断意图，然后进行回答。可以说呢，是像端到端的这种智能助手的方向迈进了一大步。未来呢，给这种端到端的黑盒子做定制开发，或者是和系统集成的话，应该是比较费劲的。为什么呢？就是各种OpenAI基础上搭建的这个系统的话，它的底层会没有那么稳定。就是你每一次把命令扔进去以后，你不知道它会用哪个模型给你回复。比如说你写了5,000字的提示词进去，OpenAI给你回答一个好的，或者叫回答一个阅，已阅，那这个事不就这个哭笑不得了吗？或者是你问他说，哎，明吃什么呀，他给你思考了半天，说哎呀明天是一个什么样的日子，啰里吧嗦给你写了2万字出来，这个就可能会造成一些坑。</p>



<p>那你说统一接口这件事，对OpenAI自己有什么好处呢？有一个巨大的好处。</p>



<p>就是你要再想分析、开解、蒸馏它的模型，就费劲了。原来我们可以逮着O1去蒸馏，蒸馏出来的东西去训练，比如说DeepSeek R1。现在变成了一个统一接口的黑箱子，你说我现在想对你去进行蒸馏，大家想一想这多费劲吧。你不一定哪句话回来一个“已阅”，不一定哪句话回来了，给你回答一大堆乱七八糟事情。这个有点像咱们现在看3D电影，这个3D电影的效果未必好，但是呢，最主要的这个功能是防止盗录。就是我现在拿个手机或者拿个摄像机，在这个电影院里把这个3D电影拍下来，是没用的，出去没法看。所以我觉得统一接口这个事情，未来也许是大方向，但现在的话，应该主要是OpenAI一个防盗措施。</p>



<p>现在呢，商业上统一接口这件事呢，我觉得可能也是个坑。为什么？得屌丝者得天下，明显带有歧视性的这种政策，会把屌丝用户都推给竞争对手的。就像我们现在为什么在国内看病，大家老觉得不爽。你去挂普通号，就是要一堆人在那排队乌泱乌泱的，进去了以后这个大夫极其没有耐心。你每次这样看完了以后，你看旁边那个特需门诊窗明几净，大夫特别耐心的这种诊疗制度的话，你肯定会觉得不爽。所以在这样的一个情况下，免费用户你再怎么使，你都会觉得不舒服的。这玩意叫“不患寡而患不居”呢，这个是应该是有坑。</p>



<p>而且现在OpenAI，虽然号称每年可以降低成本90%，就是说我推理成本会不断下降，原来是10块钱的事儿，过一年就变一块钱了。但是呢，这一次失去的收益，估计不一定少于90%。目前OpenAI的收入75%来自于订阅，就是一个月20美金也好，一个月200美金也好，就是这个钱是占他整个收入的75%的。2024年可能预计他是挣了40亿美金，然后这个钱可能都不用算训练新模型，就是他原来的这个旧模型的这个推理，压根这个40亿美金都未必覆盖的了。到新的一年，他可能大量的订阅就会流失掉，C端用户一定会大量流失。B端用户的话，如果不走开源的路，那么在B端的这个市场上。</p>



<p>面对DeepSeek这种全开源模型，我觉得OpenAI的竞争力是比较差的。而且，如何盈利的问题现在还是需要思考。目前的收入还是很难覆盖公司其实有三大成本（不算人员成本）：第一个是训练成本，第二个是推理成本，第三个是推广成本，也就是获取用户的成本。</p>



<p>训练成本，比如说我招了一大堆科学家回来，来做新模型，我要去收集数据。这个成本是一次性的，我有一个模型可以对外服务了，我就可以一直收钱了。推理成本的话，就是你要让一大堆的GPU在那等着给我们回答问题。推广成本的话，OpenAI在这个超级板上花了1,400万美金，那个就叫推广成本。</p>



<p>正常的一个公司运作下来，应该是训练成本最低，推理成本应该比训练成本高一些，推广成本有可能会比推理成本还要再高一些。但是现在这一块大家还在有争论，为什么？因为原来推广成本最高的一个六小虎，现在快玩不下去了。Kimi花了好多钱去推广，结果发现DeepSeek一出来，完全为他人做嫁衣了。</p>



<p>使用大模型聊天工具这件事上，用户基本上是没有忠诚度的。只要有一个比你好的基座大模型，大家就直接跑了。所以大家也在想说，我是不是不应该花钱去推广，还是应该把这个模型再往前推一步。但是这个事没有地吃后悔药去。后面的话，我估计OpenAI还会有比较大的调整，应该会开源一部分东西出来。你如果不开源的话，对于ToB市场是基本上没有办法的。</p>



<p>说完OpenAI以后，咱们再讲讲李彦宏同学。那真的给大家演绎了一下，什么叫唾面自干。文心一言不但要免费还要开源。李彦宏呢，就属于被OpenAI忽悠瘸了的那个，上来就开始收费，什么都不行。文心一言还比较烂的时候，就找人去收钱，而且呢，一个月是50多块钱，很贵的这个玩意在中国。当然，这坑肯定是他自己愿意跳的嘛。搜索引擎嘛都是这样，因为他后边还有搜索广告输入。你一旦是免费让人用搜索，免费让人用这个东西，那你这个搜索广告收入就没有了。</p>



<p>所以，李彦宏就跳到这坑里去了。如果模型还没有遥遥领先就开始收费的话，那用户肯定是很反感的吧。他现在到底有多少人订阅了文心一言4.0版本？反正我是从来没有用过，也从来没有定过。现在的话，直接就是180度大转弯，文心一言全部的模型都免费，而且直接开放深度搜索功能。而且呢，带有搜索功能的其实是叫文心一言4.0 Turbo的一个版本。带有搜索功能的所有大模型，一般都是有什么Turbo、light呀，或者是快速的Flash呀，有这样的这种标签在上的。就是它实际上是一个中量级的，我估计可能也就是30B或者是70B这样的一个模型，绝不可能是那种几百B的模型。这是文心1.4.0 Turbo的一个版本。他准备呢，在未来几个月陆续发布4.5版本。他到底是陆续发布，还是直接向OpenAI学习，整一个统一接口出来，现在还不确定。而且呢，讲到6月30号，4.5版本就要开源。但是呢，具体4.5版本有几个版本开源，哪些不开源，哪些到现在都没有说。</p>



<p>另外呢，在让人失望这件事上，百度是从来没有让人失望过。我看到新闻以后就好开心的，赶快跑到百度去用一下呗，结果告诉你说不行，你现在还用不了，你要收费。我说不是免费了吗？他说对，我们从4月1号才开始免费的。那天是愚人节，我们要从愚人节那天开始免费。为什么会有这么傲慢的人？你这个免费了就要在愚人节嘲笑我是傻瓜，那天给我来用。今天我上去看了，还要求付费。据说最近一段时间，百度在开会研究怎么退款，因为有些人直接订了一年的，那你没有用掉的这个部分是要给人退钱的。未来到底会不会做统一模型的入口，这个还有待来去看。百度这条路会更加的难走，为什么呢？主要是搜索收入。因为一旦大家转型了，说我们以后都去用AI搜索了，百度的搜索广告输入就没了。现在根本就没有办法去填补这块空白。就算是我们去交这每个月的使用费，他挣那点钱也绝对弥补不了搜索引擎的或者搜索广告的这个输入。</p>



<p>根本就顶不住。所以，一旦流量流向了免费的百度文心一言深度搜索功能的话，百度的命格子就断了。谷歌其实也面临同样的问题。谷歌的处理方式是什么呢？到现在为止，Gemini的客户端还收费，但是呢，AI&nbsp;<a href="http://studio.google.com/" target="_blank" rel="noreferrer noopener">studio.Google.com</a>，就是Gemini的这个程序员网站，大量的模型是可以免费使用的，最新的模型都在那里使。所以，谷歌是非常矛盾的。通过这个Gemini调用谷歌搜索，这个功能是可以的。我原来算过，具体是一毛多钱还是两毛多钱，我想不起来了，反正你调一次就要给钱，调一次就要给钱。这个到底是不是未来的方式不好说，大家也还在摸索。</p>



<p>Grok3和Llama4应该是在未来几周都会出来。所以我估计呢，2月和3月份应该会非常非常热闹，大家所期待的大模型都会出来。现在还有人说Claude也快出4了，这个事现在大家也在期待看看，他们到底能够做出一个什么样的东西出来。未来的模型市场，会向什么样的方向发展呢？其实核心的问题，到现在为止依然没决掉。什么是核心问题？就是大模型到底咋挣钱。这个事情其实到目前为止，谁也没想明白，特别是C端的钱，到底怎么把它挣回来。因为B端的钱，你一旦有这个彻底开源免费的版本了，这个B端的钱，就基本上跟大模型公司没关系了，后边的就是系统集成公司该去挣这个钱了。因为我们现在已经都有开源、免费的大模型了，我们只要用这个大模型就可以了，剩下的就是，我们去买这个几百万一台的一体机，DeepSeek R1一体机，买的过程中呢没准还可以有些回扣。剩下能够挣的钱就是C端的钱。那么C端到底咋挣钱？是这个广告费吗？还是做电商呢？还是做直播带货还是做什么？这个还是需要未来一段时间大家去思考。</p>



<p>OpenAI想的这个方式，就是给这个免费用户用笨一点的模型，给这个付费用户用聪明一点的模型。这件事呢，反正我觉得，这是OpenAI为整个行业挖的下一个坑，这个大家拭目以待，等这个事情开始跑起来以后。</p>



<p>咱们看看效果到底怎么样。这就是我们今天的第一个故事：鲶鱼已经来了，所有的鱼都得动起来，甭管你乐意不乐意。DeepSeek来了，所有的人就不要再想着在ToB这块能够大捞特捞了。在ToC这一块儿，怎么去寻找新的商业机会和商业模式，才是大家需要去思考的问题。好，这就是我们今天的第一故事。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？</title>
		<link>https://lukefan.com/2024/04/23/meta%e7%9a%84%e5%bc%80%e6%ba%90llama3%e5%86%8d%e5%ba%a6%e9%a2%a0%e8%a6%86ai%e6%8a%80%e6%9c%af%ef%bc%8c%e9%bc%93%e5%90%b9%e9%97%ad%e6%ba%90%e7%9a%84%e6%9d%8e%e5%bd%a6%e5%ae%8f%e6%98%af%e5%90%a6/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 23 Apr 2024 11:48:07 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[OpenSource]]></category>
		<category><![CDATA[70 billion parameters]]></category>
		<category><![CDATA[70B模型]]></category>
		<category><![CDATA[AI Security]]></category>
		<category><![CDATA[AI多语言处理]]></category>
		<category><![CDATA[AI安全性]]></category>
		<category><![CDATA[AI技术]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Baidu]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[GPT3.5]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[Li Yanhong]]></category>
		<category><![CDATA[LLama2]]></category>
		<category><![CDATA[LLama3]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[Multilingual AI]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Tech Innovation]]></category>
		<category><![CDATA[Technology Breakthrough]]></category>
		<category><![CDATA[WhatsApp]]></category>
		<category><![CDATA[业界影响]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[开源AI]]></category>
		<category><![CDATA[扎克伯格]]></category>
		<category><![CDATA[技术突破]]></category>
		<category><![CDATA[技术讨论]]></category>
		<category><![CDATA[文心一言]]></category>
		<category><![CDATA[李彦宏]]></category>
		<category><![CDATA[百度]]></category>
		<category><![CDATA[科技创新]]></category>
		<category><![CDATA[通义千问]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1180</guid>

					<description><![CDATA[大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。 Llama3发布了，李彦宏是不是被打脸 ... <a title="Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？" class="read-more" href="https://lukefan.com/2024/04/23/meta%e7%9a%84%e5%bc%80%e6%ba%90llama3%e5%86%8d%e5%ba%a6%e9%a2%a0%e8%a6%86ai%e6%8a%80%e6%9c%af%ef%bc%8c%e9%bc%93%e5%90%b9%e9%97%ad%e6%ba%90%e7%9a%84%e6%9d%8e%e5%bd%a6%e5%ae%8f%e6%98%af%e5%90%a6/" aria-label="阅读 Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？" width="900" height="506" src="https://www.youtube.com/embed/newut3tkNyE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。</p>



<p>Llama3发布了，李彦宏是不是被打脸了呢？Llama3突然发布，又是一个遥遥领先。它呢，发布了8B和70B的两个版本。8B就是80亿参数，70B呢就是700亿参数。8B的，我其实已经试过了，就在本地已经装上了。这个某些方面，接近了原来，或者超过了原来的Llama2的70B。包括一些咱们在本地跑的这种30多B的，这种就是300多亿参数的模型，它已经都超过了。而且速度还飞快。</p>



<p>啊，70B呢，据说已经超越了cloud 3的中量级模型。Note 3是有三个模型的：一个是特别微小的，就是可以在手机上跑；一个是中等量级的，是可以在PC本地跑的；然后还有一个是那种特别大的，特别大的，是可以对标GPT4的。70B的基本上已经超过这个中等量级了，也超越了GMINI 1.5 Pro。现在大家想去试GMINI 1.5 Pro的，可以到AI studio.google.com上去试，那个是可以免费用的。也超越了现在70B发布出来的版本。普遍他们自己讲的是超越了GPT3.5，但是呢，还达不到GPT4。这在所有测试数据上都是这样。我相信梅塔应该不会像咱们似的，专门做一些调优以后去跑分，不像咱们这么无聊。</p>



<span id="more-1180"></span>



<p>在现在的这种开元大模型里头，同等体量的效果最好。咱们在衡量一个开元大模型的时候，如果它没有一些特别革命性的变化，我们一般是怎么衡量它？就是你的体量大小。你比如说大家都是8B的，你跟这个8B的比，你是最好的。这个都属于是同等体量的。你说我一个8B的…\n非要跟一个几百臂、几千亿参数的模型去比，这个事呢，就属于叫不公平竞争了。那么70B的模型，他们现在基本上应该是可以的。注意，GPT 3.5有多少参数是1,750亿，175B的一个。GVT 3.5 其实它已经超越那个时候了。所以呢，大家都在比，这个有点像什么呢？有点像拳击，先看重量级。我如果能够越级干掉一个老拳手，一个8B的，可以干掉几年前的175B的这个，其实已经算是这几年我们可以看到的技术进步了，这个是非常不容易的。他呢，也超越了啊，Metro的这个medium版本，就是这个中间版，但是达不到这个launch这个版本，master的这个最大的版是可以接近GPT4的。然后呢，也超越了千问，同一千问也超了，体验呢肯定是上升了。</p>



<p>第一个是8K上下文。咱们讲说这个大模型，做上下文增长其实挺费劲的，对吧？传统的Lama two是4K的，就是4,000字，现在呢可以上8,000字。大家注意，这个上下文不光是输出8,000字，是输入加输出加一块8,000字。所以呢，你比如说你输入写的比较长了，那么输出就会比较费劲。因为我最近在尝试用这个东西写小说嘛，我就特别喜欢像啊零一万物的200K的上下文，20万字，所以我可以写特别多的这个背景信息扔进去，说来照这个背景信息，给我输出个2,000字出来，哎，那个效果就非常好。</p>



<p>现在的这个新的提升呢，就是包括整个新的框架的提升，他整个训练的效率也上去了。大家要注意，妈妈，其实真正核心的是什么？就是这个框架。为什么说他这块框架厉害呢？就是其他人，包括像刚才咱们讲的名义万物啊，extra，好多都是要参考它的框架，然后在这个框架基本上再去改。如果Lama把这个整个框架的效率提升了，可能我们很快就可以看到大量的这种大模型。一个一个升级，升级完了以后，发现我们都变快了吧。这个是开元大模型做的最大的贡献！而且呢，Llama3啊，现在有更强的推进能力和代码能力。但是我还没有尝试让他写代码，我让他试了些别的——他的安全性提升了。你别看他开源的，你可以弄到本地来，你说你让他干点坏事啊，干不了。我自己亲自测了一下，因为我在尝试写小说嘛，稍微写的不太合适了，他就直接告诉你说：“对不起，后边我没法给你写了。”你让他给你写一些黑客程序啊，一些这种有害代码呀，他都会直接拒绝你。这个是现在做得非常好的一点！但是我相信，这样的这种模型，你按道理说，你对他进行微调，或者对他进行PUA，还是有可能能够让他去做一些突破底线的事情。特别是这个模型现在到我们自己手里了，对，那我就可以反复PUA他，然后找到到底哪一个提示词可以把它这个坏的一面释放出来。这个事还是OK的。我现在是让他去写小说，肯定是写到一些过分的地方，他就退掉了，还没有找到刺激他的正确的提示词啊。这个我相信应该是很多人会去找的。超大规模的预训练数据——Llama3，最后告诉大家说，大力出奇迹，这条路依然走得通。扎克伯格花钱买了35万块H100，加上他原来所有的这些H100，然后呢，拿这么多的H100去进行训练，而且他的训练数据的量，是原来Llama2的好几倍啊。现在有15T的训练数据，这些鸽子里头的训练数据质量非常高。他们强调如何利用高质量的训练数据，比如用Lamar对所有训练数据进行驱虫。虽然有些数据质量好一点，有些差一点，但他们会挑选最好的。此外，他们利用Lamar生成新的训练数据，因此拥有大量由Lamar生成的训练数据。这表明大模型正在自我迭代，Lamar生成的数据被用来训练Lamar3。</p>



<p>当然，也存在一些潜在问题。例如，在对话中，模型可能会自称是GPT、Gemini或文心一言，因为即使通过大模型清洗训练数据，也未必能完全清除这些信息。对于版权数据，Meta的态度较为模糊。Open AI使用大量YouTube视频进行训练，而谷歌已指出这可能违反视频协议。Meta同样使用大量版权内容训练，声称部分数据得到授权，部分来自公开网络，这在法律边缘试探。尽管模型开源且免费，但起诉Meta并不容易，因此多数人选择针对Open AI。值得注意的是，尽管该模型支持30多种语言，但非英语内容仅占5%，中文内容的比例更少。\n所有英语之外的内容，就是5%。也就是说，英语内容是95%。是这样训练出来的一个东西。我尝试让他写小说，他经常还是会在中文小说里头加大英文，或者写到第几章以后，就后边都改英文了。这个… 现在肯定还是需要再进行中文微调。Lamari 二杠有一个专门针对中文的微调版本，对中文的支持会更好一些。但是既然他把这个东西拿出来了，就是让大家去微调的。在聊天的过程中，对中文的支持也没有那么好。当然，后面还有超大杯。现在我们能够拿到的是8B和70B，已经放出来给大家用了。8B的这个部分，我在我自己的机器上已经测过了，没有任何问题，而且速度很快。70B呢，你需要128G的内存才可以跑起来，我的机器跑不起来。但是呢，我到Poe上去试了一下，试的效果极烂。因为试的人太多了，把Poe的服务器给挂崩了。Poe没有给他放那么多的资源和测试，所以经常一点完了以后他就不动了。这个70B到底效果怎么样，我并没有进行很多的测试。其实还有一种测试方式是，你可以到自己到云服务器上去租。租一台4090，就是单4090显卡的云主机，一个小时大概两块多钱，3块钱人民币。如果不是有特别集中的使用，就不建议大家去租这个玩了。后边还会有多模态的大模型放出来。现在这两个还都是文本模型。前面也跟大家录过很多视频在讲，梅塔做了这么多年的元宇宙，在多模态这块的积累，其实是蛮深厚的。后面多模态的大模型出来，我们还是要去稍微的期待一下。因为我已经用梅塔AI去画了几张画了，效果其实还可以。我最近也试了字节跳动的绘画程序，什么视频程序，我都试了。然后也试验了阿里的通一千问的绘画，梅塔AI的绘画，其实现在效果已经很好了。你就这么想吧，stable diffusion的最新的版本的效果这么好，那么国内这些用Saberity future去搭模型，搭框架的，不管是字节的，还是阿里通1,000问的那个…\n效果一般也就上去了。虽然达不到像Mijili那么好控制，但是呢，也都还可以使用。谜坦AI的这一块呢，还是可以去试试。后面呢，还会有一个400币的模型会出来。400币是多少？4,000亿啊。4,000亿呢，现在还在训练和调整之中，还没有彻底弄完。我估计训练应该训完了，但是这种模型就是训完了以后，最后的这个调整过程是非常麻烦的。那么有可能开源。为什么说有可能开源呢？就是前面这个group one开源的时候，314币，3,140亿参数的时候，其实我是录了一条视频，马斯克还骂了一顿。我说，你开一个这样的东西出来，没有100万人民币的服务器，谁也跑不起来。你说你弄他干嘛使？而且还是个MOE的模型。MOE是什么？就是这种专家模型，就是它是由8个小模型凑的，每一次动两个啊，就是每问一个问题，它有两个小模型去工作。你即使这样，还是需要上百万人民币的服务器，才可以把它带起来。巴马3的400币模型，它不是MOE，它是个单模型，实实在在的有4,000亿参数。它不是说像group one那样，每次跑的时候，比如说我整个1,000多亿的参数，剩下都休息。这样的模型，估计至少要上千万人民币的设备，才有可能让它跑起来。所以这样的模型，到底最后会不会开出来，不好说啊。</p>



<p>梅塔AI呢，现在也放出来给大家试，就是大家可以到AI点梅塔.com上去试啊，AI点meta.com去试尝试这东西啊，已经可以去聊天了。而且未来呢，就是梅塔AI呢，会到全线的啊，美塔相关的产品里头去用。比如说你可以到WhatsApp, Messenger, Instagram就可以用。怎么用呢？你直接给他@梅塔AI，然后你就可以告诉他说…\n我跟谁谁谁在WhatsApp上聊天儿呢。聊着聊着我就哎，突然想到一个问题，问美美塔AI：“天气怎么样啊？或者有什么事啊？给我解一个什么什么东西出来。”他就干活去了。这个真的很棒！或者你在这个里头写一个斜线&#8221;imagine&#8221;，就跟咱们在那个discount里的调料制作过程一样，直接就能画画去了。现在这个功能已经在30多个国家的WhatsApp、Message和Instagram上上线了。还会在哪里出现呢？在雷鹏的梅塔眼镜上，或者在快速3上，也即将登陆。</p>



<p>现在Instagram上的修图工具也是调用的梅塔AI。你可以告诉它：“把这帽子给我从绿的换成红的，或者不要戴帽子，绿的不太吉利。”它现在已经可以执行这些任务了。我测试了一下，这个只吃英文。现在的维卡AI，你上去以后可以说：“我要试一下。”据说是在30多个国家开通了。然后我特别逗，用英中文提了问题，提完问题以后，吉塔AI用中文回答了。它噼里啪啦答完以后，屏幕闪了一下，那个回答的所有内容就没了，然后用英文告诉我：“对不起，我现在无法理解这个中文，等我知识更丰富的时候再告诉你。”它这样的一个东西，实际上是可以做到的，只是效果还没那么好，所以没正式推出。</p>



<p>大家要知道，Llama（Lama）其实一直是整个开源AI界里的领头羊。所以现在有很多人叫什么呢？叫开源GPT4来了。有很多人写了这样的标题，很多人都在想去做开源，但只有Llama氏，在整个的开源行业里头，真正起到了扛鼎的这个位置。为什么？因为所有的其他人，都是在拉马的基础上去做的。其实，拉马一出来的时候，并没有那么多响动。因为大家都知道，给你一个开源软件或系统，你要把它刨根问底并不容易。在拉马一刚出来的时候，你想去深入研究，这事儿是很麻烦的。到拉马2出来的时候，就已经非常厉害了，它彻底打破了垄断，打破了Open AI和Cloud这样的程序的垄断，彻底推动了开源文化。特别是在拉马2出来的这段时间里，比如我用的Olama，还有Lam Studio，各种各样的开源工具包，让我们可以在本地运行这些大模型，各种开源生态都搭建起来了。</p>



<p>这是从拉马尔开始的，而且为整个行业指明了方向。很多开源大模型直接用了Lama 2的数据结构。像我前面还去跟零一万物的Wechat录过一期节目，有人说，你们是不是抄Lama 2了？他们说没有，我们只是用了这个数据结构，但所有数据都是我们自己的，所有的训练也都是我们自己跑的，只是最后的结构与LIME2相似。现在大量的开源模型都是用Lamar结构的，无论你是用Lamar进行微调，还是从零开始训练，最后都会塞到LIME2的结构里。</p>



<p>现在，这真的给很多人创造了新的机会。比如零一八五、Matro等，都号称可能与Lamar2的架构有些像，但他们每一家都会在基础上做一些创新，比如调整某些参数，添加新的算法，提升效率或在特定环境里更好用。但底层都是拉马2，它彻底推动了行业变革，大批以拉马2为基础微调出来的模型应运而生。\n现在，各行各业都在运转。我去日本时也看过，日本当地的大模型，比如NTT的或像LINE这样的，大多数都是基于拉曼2进行微调后使用的。整个大模型行业中，真正赚到钱的基本上都是利用拉曼2进行训练而获利的。像百度、阿里这样的公司，可能还没赚钱，就连Open AI也在亏损。然而，利用拉曼2赚钱的现象很普遍。</p>



<p>李彦宏曾说，开源大模型会越来越低级，但这句话显然已经打脸了。Llama3发布后，我相信它无需达到400币，可能70币就已经能碾压文心言3.0或3.5。现在称为3.5，它没有任何问题，甚至可以碾压需要付费的文心言四，70币足以做到这一点。</p>



<p>我个人一直很支持开源，因为我的朋友是天空开物基金会的负责人，而我本身是做开发者关系出身，也是该基金会的顾问，所以我自然站在开源这边。不过，我要说的是，李彦宏，你怎么又在说这种大实话了呢？我遇到过很多次他这样直言不讳的情况。比如以前在盛大网络，我们起诉百度抄袭我们的书，特别是小说。盛大文学那时有一个系统，专门在百度搜索我们的小说，结果发现排在前面的不是我们的，我们就起诉。结果发现排在最前面的是百度文库，对此，李彦宏就说…\n“了说，你们这帮人就是来蹭我热度的。”<br>他们是一小公司，对于当时的百度来说，盛大确实是没有他大。所以他说：“你是一个小公司，你来起诉我，你就是想蹭我热度。你希望通过起诉百度这个事情，让更多的人来去看小说。”最后，李彦宏是怎么办的呢？他是把百度文库里边的所有小说全删了。法院也是判盛大胜诉了，啊，胜诉了我们获得了多少赔偿呢？50万人民币。这个就没法讲了，因为当时盗版的赔偿上限就是50万人民币。你说这个事情他盗版了对不对？他肯定不对。但是呢，我们需要什么？我们需要流量。你别看我们得到了50万人民币的赔偿，我们还胜诉了，但是每年盛大向百度花的钱，我们上这去投放，希望百度能够把盛大的小说，能把起点排头一个，每年花好几千万。那一年他就象征性的要退了我们50万。在这个过程中，我们通过起诉百度，100又可以得到大量的流量。然后啊，你看这个书应该到起点那边去看去，对吧，大家有这样的一个印象。这是第一次啊，瞎说大实话。其实他说的话呢，就是有道理啊，但是呢，很多跟大家的认知的，或者说这些道德他是不匹配的。</p>



<p>第二次赶上李彦宏瞎说大实话，又是我赶上了什么事呢？我当时离开盛大了，后来去了猎豹移动。到猎豹移动以后啊，我们开始做隐私保护，怎么能够让用户啊，把隐私保护起来，做了这样的一个功能。袁弘又上去瞎说大实话去了，说中国用户根本就不在意隐私，隐私保护这个需求就是个伪需求，你只要给他们一点点方便，他们就很开心的用隐私出来给你换。当时我们觉得这怎么可能呢，这个事太违反常识了。你跟任何一个人说你要隐私吗，他都说要啊。后来我们发现李彦宏又在瞎说大实话，是什么呢？我们跟用户商量说，你给我10块钱，我帮你保护一下隐私，行吧，用户说不给。隐私啊，我要，但是要钱，没有。它是这样的，所以保护隐私是个伪需求啊，你如果是个真的需求啊，那你就应该老老实实为保护隐私付钱。对吧，没有任何人愿意为这个事付钱啊。你说我现在要拿你的数据回来，你要去给我签这个用户执行同意书，签完了以后我拿你的数据去做预算了。但同时我给你提供了搜索服务，提供了其他的各种推荐服务，你干不干呢？啊，一帮用户就开开心心去干去了。对吧，所以李彦宏又在不对了。那么这一次呢，依然如此。什么叫瞎说大实话？就是真话，这说的都是真的，但是呢，有很多事啊，他叫可以做，但不可以说呀。对吧，李彦宏瞎说的大实话，就是你都可以这么干，而且我们在圈里的人呢，也都知道这事就这么回事，但是你不能拿出来说。对吧，你也作为一个BAT，虽然现在B稍微的这个衰落了一点，也算是国内大佬，你把这种大实话拿出来说，他是有问题的。而且还有一点是什么，就是大家老说他瞎说大实话呢，就是他每次干完了这事，在百度自己身上呢，也没得到什么好处。</p>



<p>那么李彦宏这次说的是什么呢？开源模型会越来越落后，这个事是什么意思呢？就是训练大模型的成本实在是太高了，特别是当它的底层框架确定了以后，你想去训练它，这个成本是非常非常高的，非常费钱。所以要什么呢？比如说Llama，从Llama2升级到Llama3，给大家指明了方向，大家向这个方向去前进。那么在这个时候大家再去训练，你说我连方向都没有，然后底层都不清楚，我们要从头开始做这个事情，那这个成本实在是太高了，至少中国企业很难去承担这个成本，即使是在Lama 2的基础上，说我用这个数学模型或者用这个数据结构，我重新去训练新的模型，这些公司其实也很难盈利。这个事是太难了。所以呢，如果大家的底层就这样的不动了，比如就蓝帽2这样不动了，就在这个基础上，这个吃老本，那么李彦宏说这话就对了，就是说你就越来越落后。我们不停地去寻找有这个底层开发能力的人，我们不停地去迭代、去更新。你的那些人就老是在蓝码2的基础上去做，但是现在，蓝码3出来了，大家又可以往前走一步了。对，但是这些人的底层都不是自己的。比如说华为说我今天做芯片了，那芯片底层是什么？底层是UP或者是台积电，你底层永远不在自己手里面，那么他的天花板是有限的。所以李彦宏说的这句话本身并没有大毛病，虽然Llama三帮所有的开源模型又往前升级了一步，但是你的底层依然不是不可控的。</p>



<p>第二个，李彦宏讲的是开源并不便宜。这个话，其实我作为一个这么长时间去推广开源的人来说，我是极其赞同的。你去使用商业服务，其实你省去了大量的成本，因为有人给你签服务协议，你只要交钥匙就完事了。你要是想去做开源，你还要雇开源的程序员，然后这个人今天开心了，明天不开心了，后天你发现面试的时候看走眼了，这个成本是非常高的。而且，开源系统底层还有很多的不确定性。其实闭源系统也有bug，但是它处理方式是什么？我给你签一个服务协议，有bug你给我改去，我不管了。对，但是开源系统有时候有bug，里面他懒，没人理你，对吧，这个事是有可能的。所以开源，使用整个的开源系统是非常贵的，这个是我认同的。然后呢，是闭源才有商业模式，这件事其实没有那么认同。为什么呢？就是开源大模型通常在商业模式的周期上，它是比较漫长的。从拉马尔出来，一帮人开始弄，然后最后能挣到这笔钱，可能也得要个一两年的时间，你才能把这个钱挣到手，所以他是非常漫长的。而且呢，到现在为止，梅塔自己其实也没想明白，怎么用Llama去挣钱。梅塔虽然是Llama一、Llama二、Llama三都出来了，但是你说梅塔，你在这里头收着钱了没？他也没收着，对吧。而且他都没想明白，说我到底怎么把钱收回来。只是谁挣到钱了，就是我拿Lamar去再训练新的模型，比如我训练了一个医药的模型，或者我训练了一个移民中介，什么留学中介，我先练了一个这样的模型，就这个是能挣点钱的。但是你说梅塔自己怎么挣钱，不知道，对吧。所以想去靠开元大模型就直接挣着钱的，谁也搞不清怎么玩啊，包括像通1,000问，对吧，他怎么挣钱呢？他最后是说，哎，你们都用通1,000问吧，我是做云计算的，反正你都得上网来，用来你买我的云主机，我我通过卖云主机的过程再把钱挣过来，对吧，他是这么来挣这钱的。</p>



<p>所以你做从以前问，这到底是挣了钱没挣着钱，或者说我的这个云算多卖了多少，这个是一笔糊涂账。而且阿里在挣钱的方式是什么？就是我把所有这一圈子里头做这个大模型的全投资一遍，然后你们通通都上我这阿里云上来去干活去，我把阿里云的这个业绩做上去，任何人甭管我是用Kimi啊，是用什么mini Max呀，都上阿里云上用去，你们就用上阿里云去充值，不就完事了吗？对吧，阿里是挣这个钱的。但梅塔到底怎么挣这个钱，他自己也没想明白，所以它这个生命周期非常的长。然后大模型跟开元Linux是不一样的，跟安卓也不一样，实际上，最主要的开发者就是梅塔一家，不是一个真正大家一起协同开发的产品。这是李安红讲的，我觉得这句话呢，说的也非常正确。现在大家用的各种开元大模型，基本上都是在拉嘛2啊，或者是现在马上要出来拉嘛3啊，在这个基本上改来改去。我估计现在凌医万物的小伙伴们应该都在加班呢，对吧，拉嘛3出来以后赶快拆，拆完了以后，那么怎么能够重新去训练一个新的模型。怎么能够让这个模型的效率提升呢？我现在等着使用他们的新模型。在整个过程中，真正愿意做底层、愿意在底层上做前瞻性工作的公司，其实是没有的，或者说很少很少。听说质谱清音使用了全新的技术，但具体如何还不清楚。很多其他模型其实都是从Lamar借鉴了很多。李彦宏还说，既然不赚钱，为什么要做大模型？我觉得至少在中国，这种做法是对的。你说Open AI，像山姆奥特曼，马斯克，他们为什么要做大模型？是不是就是为了赚钱？这个我们不得而知，毕竟我们和他们不在同一个高度上，不能乱讲。</p>



<p>那么，构建国内最强的大模型，是李彦宏现在想要去做的事情。他第一个发布，哪怕被批评得一无是处，也是第一个尝试的。他穿着一条特别花哨的皮带，就这样上去了。甚至有人评论，他穿着白衬衫，像白衣飘飘的样子。他希望成为国内最大的，甚至在国内外都是最强的大模型。在国外，这个说法我觉得可以接受，就像众英雄围攻光明顶，光明顶就是GPT4，包括像Cloud这样的产品，它们是最强的，无可超越。即使是正在赶超的Gemini，也是必圆产品。而Gemini开源出来的那部分叫Gema，它并不是Gemini那个模型。\n国外的情况是这样，但国内的情况真不好说。为什么呢？因为国内的模型中，百度和Kimi是必远的。百度的使用体验对我来说太差了，太难操作。相比之下，Kimi我用得比较多，确实比较好用。此外，通易千问、百川智能、质朴清音、灵异万物、昆仑万维、360和猎豹都是开源的模型。我尝试过通易千问和一万物这两个开源的，以及一个闭源的。目前我觉得通易千问，尤其是千问1.5的32B版本，非常好用，运行速度非常快，给人留下深刻印象。</p>



<p>现在我主要在用通易千问和Kimi。不过Kimi有一个缺点，就是它经常在运行时报错，说服务器太忙，服务不过来。当你直接向Kimi提问几次后，它会告诉你它太忙了，让你稍后再问。这种情况时有发生。</p>



<p>百度一直自称是国内AI领域的领头羊，根据2023年第四季度的财报，其智能云业务营收为84亿人民币。但要注意，这其中包括了云计算和其他业务，比如智能汽车（自动驾驶）的收入。真正由大模型为百度云带来的收入增长，可能只有6.6亿人民币，这对百度来说可能只是杯水车薪，烧不了多久。所以这对百度来说，无疑是一个相当亏损的业务。而且…\n文心艺言嘛，为百度广告系统带来了数亿元的增收。但这个呢，就是百左手倒右手啊，哪一部分是由文心艺言带来，哪一部分是广告系统，就直接正着了。这个不好说啊。每天呢据说有5,000万次调用，这个我觉得也挺夸张的啊，真的我不知道为什么会有这么多人使这东西，因为那玩意真挺难使。预计2024年，大模型的收入贡献会成10倍，就是去年大概是挣了不到10亿美啊，人民币啊，今年大概会挣到几十亿人民币，在这样的一个水平上。</p>



<p>那么李彦宏为什么说这个话呢？啊，第一个，整个行业其实都不挣钱，包括他自己。就是做了半天大模型也没挣着钱，开元啊肯定是没挣到钱，甭管是刚才咱们讲的，灵异万物也好，百川啊，昆仑，360猎豹在这块估计挣到的钱都不多。360跟猎豹没准还能挣到点，因为他们就是纯纯做图币去了。他们自己那个开元模型，到底拿多少钱训的，而且他也不会推这个东西啊，推开源模型本身的成本也很高。不光是说你本东西开源出来就会有人用啊，然后通1,000问，刚才我讲的，他是通过另外一种方式。</p>



<p>之前呢咱们不管他，整个行业没挣着钱，开源也没挣着钱，但是呢，开源同时会极大的影响闭园挣钱。什么意思呢？比如说我这有一个公司，现在需要一个大模型来给我干活，正常你应该怎么办呢？我上百度上去买去啊，或者上open AI，上微软去买去啊。现在人说哎，我这有开源的啊，那等有很多的系统集成相关的公司，就可以把开源的这些大模型直接集成到我的系统地区了啊，我还可以给你做私有化部署，就这些人能挣着钱。现在Llama已经说了，可以免费商用，你拿去使吧，我不管了，等于把所有的这种中小规模的系统集成商，一把就全赋能了啊，他们挣钱去了。但是这些人挣钱的时候，这个单位就不会再去花钱干嘛呢？买这个open AI，买微软买百度了。所以他就一定要出来讲说，开元是没戏的啊，你们就老老实实买我的这个闭元的就好了。而且呢，开元有的时候啊，你避免不了，为什么呢？拿开元做定制是现在唯一的挣钱路径，而且这个是百度最受不了的，因为这块真的是在吃他的肉。哎，中国大模型创业呢，其实有很多困境的。第一个，成本非常高。尤其是合规成本，非常高。如果你说错了话，是要被封号的。</p>



<p>第二个，中国做任何创业，都必须马上挣钱。你如果说，我想先去折腾一段时间，过个10年再挣钱，想都甭想。像Open AI这样的公司，在中国是不可能成功的。为什么？因为大家在建立时是非营利组织，压根就没想明白该怎么挣钱，然后就四处融资。融完一大笔钱以后，就坐着吭哧吭哧地做。确实很多年一点收入没有，而且还烧钱烧得贼快。这个在中国是行不通的，必须马上挣钱。而且市场有限，现在在中国基本上没有C端市场。所有愿意出钱、花钱再去做工程做项目的人，大多是政府和大企业。</p>



<p>政府和大企业的客户争夺，不完全依靠技术。还有很多其他相关的，或者不相关的，商业的或者非商业的因素影响。最后谁中标，谁没中标，就是这样。</p>



<p>所以，为什么一帮中国人一听说Lama开源了，然后自主研发、自主知识产权的国产大模型就出来了。出来以后，他们去那些大的甲方那里去中标。其实李彦宏在骂的就是这帮人，就是你们不要去抄袭人家的东西，然后自己号称是自主知识产权。</p>



<p>在中国到现在为止，拿到牌照的大模型有多少？117个。如果有这么多大模型都拿到牌照了，中国有这么多数据，有这么多GPU让他们去训练，能出这么多模型来吗？或者花了这么多钱去训练吗？没有。大家拿的，都是Lama改的，全是这样。就是你拿数去看就行了，你不用管他到底是不是这个数。一看就知道，有很多的数据，你只要拿下来比，你就知道说，如果所有这些大模型都是自主研发，自主知识产权，从拿数据开始，一分钱一分钱的去训练出来的，那么这事是不可能的。你像我去问过零一啊，什么这些人，就是他们是从头拿数据去训练，虽然他底层的数据结构是Lamar的，但是那也是花了很多钱的。就是你不融到几亿美金，根本就不敢干这活。但是你想，中国有多少个融到几亿美金的大模型公司？刚才我们讲的是有牌照的，还有很多没有牌照的。没有牌照就是不用动外，对外服务啊，我还是可以比如说做一个什么，颁个奖然后在对内服务，这事还是有的。可能中国现在有几百个，甚至上千个大模型在跑。所以啊，这件事情呢，对于这些做大模型的人来说，是比较难受的。在这一块上，没准最后阿里能把钱挣着，就甭管你用谁的大模型，你到阿里云上来租我的服务器吧。而且呢，李彦宏的意思就是就这么点钱，就这么点甲方，你让百度张了吧。大家都是自主研发，自主知识产权，这还是看谁的资本硬吧。百度在这种竞争中呢，有一定的优势，毕竟排在这，但是呢，你有的时候真备不住谁七大姑八大姨说，哎，我这事我能搞定啊，你就不用用百度了是吧。这是李彦宏出来瞎说大实话的一个原因吧。就是大家注意啊，我每次讲李彦宏出来瞎说大实话的时候，实际上都是百度遇到了一些问题的时候，挣钱挣的不够多了啊，或者说是有一定压力的市场发生变化了啊。第一次是百度希望做内容营销，发现他遇到了版权的问题，出来瞎说了一个大实话。第二次是什么呢？百度希望做移动，结果发现移动里头有一帮人去搞这个隐私保护，又搞了一次。现在呢，是啊，去做大模型了，然后发现一帮人在喊开元对吧，他又又要出来瞎说大实话了啊。干了这么三件事，咱们最后讲一下，Lamar3到底会带来什么东西吧。Lamar3呢，会带来哪些改变啊？第一个，整个开元大模型行业会迎来爆发式升级，就所有做开源大模型的人…\n都会在未来的可能两三个月里头，就会升级自己的大模型。大家可以看看谁升级的快，哎，升级快的，这个就属于技术力比较强的。因为你想，你给你一个新的大模型，整个各种系统架构都是变化了，都是新的，效率更高，质量更好。大家就一定会去研究、分解，然后再去拿这个相应的训练方法，相应的注意结构，再去训练自己的模型。所以到未来，可能我们再使用在本机上三十几币的这种模型，就完完全全可以接近到GPT4的一个水平，超越这事还不敢乱说。然后你在服务器端可以跑到的这种70币模型，基本上是可以超越GPT4的。大概就是可以到这样的一个程度。</p>



<p>而且呢，各种Lama3的微调模型会快速爆发。就是我先不去训练新的，我现在这个基本上进行一定的微调，这些可能在几周之内就会疯狂上线了。然后呢，行业应用可能会快速的提升，这个可用性就提升了。比如说我原来是给建筑业用的，给银行用的，给保险公司用的，那么他们可能会发现，我这个升级了，升级了以后，这个系统一下就变得不是那么人工智障了，就变得好用了。这件事情应该可能在未来的一两个月里就会发生。</p>



<p>这件事情之后，从头训练自研大模型的公司呢，这个日子会稍微的再难那么一点，包括百度自己。这就是Llama3可能会带来的改变。而且我相信Llama3出来以后，在未来的半年里头，会有大量的新的公司出来，我要创业，我要再去做大模型相关的创业去了，一定会有人干这个事的。对于我们来说呢，可能还可以继续期待一下GPT5。我们不期待GPT5到底能够带来哪些能提升什么，真正需要的是GPT5可以给整个的行业再指明一次方向，大家向这个方向冲，这个是可以证明的。那么在这个过程中呢…\n这方向明确了，人跟钱都不缺啊。有很多人说我们很聪明，我们要干这个事情，还有很多钱啊，等着冲上去说：“哎，方向指明了，赶快上！”就想这个Solar大模型，现在还没有人上来用上吧，但是已经有大量的视频模型，已经冲上来，可以给大家使了。所以啊，Open AI，你指明方向就可以了啊。咱们也可以看看，到什么时候真的会出现能源短缺吧。其实现在大家在叫做芯片短缺，等芯片灯真的都充满了以后啊，咱们看看，是不是咱们会把所有电用光啊。这就是咱们今天讲的第一个故事啊，就是Llama三来了，是不是给李彦宏打脸了啊？但是我到现在还是认为，李彦宏说的话啊，就是真的是瞎说大实话啊。大概是这样的一个情况。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
