<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>GPT3.5 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/gpt3-5/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Tue, 23 Apr 2024 12:12:36 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>GPT3.5 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？</title>
		<link>https://lukefan.com/2024/04/23/meta%e7%9a%84%e5%bc%80%e6%ba%90llama3%e5%86%8d%e5%ba%a6%e9%a2%a0%e8%a6%86ai%e6%8a%80%e6%9c%af%ef%bc%8c%e9%bc%93%e5%90%b9%e9%97%ad%e6%ba%90%e7%9a%84%e6%9d%8e%e5%bd%a6%e5%ae%8f%e6%98%af%e5%90%a6/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 23 Apr 2024 11:48:07 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[OpenSource]]></category>
		<category><![CDATA[70 billion parameters]]></category>
		<category><![CDATA[70B模型]]></category>
		<category><![CDATA[AI Security]]></category>
		<category><![CDATA[AI多语言处理]]></category>
		<category><![CDATA[AI安全性]]></category>
		<category><![CDATA[AI技术]]></category>
		<category><![CDATA[Artificial Intelligence]]></category>
		<category><![CDATA[Baidu]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Facebook]]></category>
		<category><![CDATA[GPT3.5]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[Instagram]]></category>
		<category><![CDATA[Li Yanhong]]></category>
		<category><![CDATA[LLama2]]></category>
		<category><![CDATA[LLama3]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[Multilingual AI]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Tech Innovation]]></category>
		<category><![CDATA[Technology Breakthrough]]></category>
		<category><![CDATA[WhatsApp]]></category>
		<category><![CDATA[业界影响]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[开源AI]]></category>
		<category><![CDATA[扎克伯格]]></category>
		<category><![CDATA[技术突破]]></category>
		<category><![CDATA[技术讨论]]></category>
		<category><![CDATA[文心一言]]></category>
		<category><![CDATA[李彦宏]]></category>
		<category><![CDATA[百度]]></category>
		<category><![CDATA[科技创新]]></category>
		<category><![CDATA[通义千问]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1180</guid>

					<description><![CDATA[大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。 Llama3发布了，李彦宏是不是被打脸 ... <a title="Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？" class="read-more" href="https://lukefan.com/2024/04/23/meta%e7%9a%84%e5%bc%80%e6%ba%90llama3%e5%86%8d%e5%ba%a6%e9%a2%a0%e8%a6%86ai%e6%8a%80%e6%9c%af%ef%bc%8c%e9%bc%93%e5%90%b9%e9%97%ad%e6%ba%90%e7%9a%84%e6%9d%8e%e5%bd%a6%e5%ae%8f%e6%98%af%e5%90%a6/" aria-label="阅读 Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Meta的开源LLama3再度颠覆AI技术，鼓吹闭源的李彦宏是否真的打脸了？全新70B模型震撼发布，全方位超越GPT3.5，会给整个行业带来哪些改变？" width="900" height="506" src="https://www.youtube.com/embed/newut3tkNyE?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲第一个故事。</p>



<p>Llama3发布了，李彦宏是不是被打脸了呢？Llama3突然发布，又是一个遥遥领先。它呢，发布了8B和70B的两个版本。8B就是80亿参数，70B呢就是700亿参数。8B的，我其实已经试过了，就在本地已经装上了。这个某些方面，接近了原来，或者超过了原来的Llama2的70B。包括一些咱们在本地跑的这种30多B的，这种就是300多亿参数的模型，它已经都超过了。而且速度还飞快。</p>



<p>啊，70B呢，据说已经超越了cloud 3的中量级模型。Note 3是有三个模型的：一个是特别微小的，就是可以在手机上跑；一个是中等量级的，是可以在PC本地跑的；然后还有一个是那种特别大的，特别大的，是可以对标GPT4的。70B的基本上已经超过这个中等量级了，也超越了GMINI 1.5 Pro。现在大家想去试GMINI 1.5 Pro的，可以到AI studio.google.com上去试，那个是可以免费用的。也超越了现在70B发布出来的版本。普遍他们自己讲的是超越了GPT3.5，但是呢，还达不到GPT4。这在所有测试数据上都是这样。我相信梅塔应该不会像咱们似的，专门做一些调优以后去跑分，不像咱们这么无聊。</p>



<span id="more-1180"></span>



<p>在现在的这种开元大模型里头，同等体量的效果最好。咱们在衡量一个开元大模型的时候，如果它没有一些特别革命性的变化，我们一般是怎么衡量它？就是你的体量大小。你比如说大家都是8B的，你跟这个8B的比，你是最好的。这个都属于是同等体量的。你说我一个8B的…\n非要跟一个几百臂、几千亿参数的模型去比，这个事呢，就属于叫不公平竞争了。那么70B的模型，他们现在基本上应该是可以的。注意，GPT 3.5有多少参数是1,750亿，175B的一个。GVT 3.5 其实它已经超越那个时候了。所以呢，大家都在比，这个有点像什么呢？有点像拳击，先看重量级。我如果能够越级干掉一个老拳手，一个8B的，可以干掉几年前的175B的这个，其实已经算是这几年我们可以看到的技术进步了，这个是非常不容易的。他呢，也超越了啊，Metro的这个medium版本，就是这个中间版，但是达不到这个launch这个版本，master的这个最大的版是可以接近GPT4的。然后呢，也超越了千问，同一千问也超了，体验呢肯定是上升了。</p>



<p>第一个是8K上下文。咱们讲说这个大模型，做上下文增长其实挺费劲的，对吧？传统的Lama two是4K的，就是4,000字，现在呢可以上8,000字。大家注意，这个上下文不光是输出8,000字，是输入加输出加一块8,000字。所以呢，你比如说你输入写的比较长了，那么输出就会比较费劲。因为我最近在尝试用这个东西写小说嘛，我就特别喜欢像啊零一万物的200K的上下文，20万字，所以我可以写特别多的这个背景信息扔进去，说来照这个背景信息，给我输出个2,000字出来，哎，那个效果就非常好。</p>



<p>现在的这个新的提升呢，就是包括整个新的框架的提升，他整个训练的效率也上去了。大家要注意，妈妈，其实真正核心的是什么？就是这个框架。为什么说他这块框架厉害呢？就是其他人，包括像刚才咱们讲的名义万物啊，extra，好多都是要参考它的框架，然后在这个框架基本上再去改。如果Lama把这个整个框架的效率提升了，可能我们很快就可以看到大量的这种大模型。一个一个升级，升级完了以后，发现我们都变快了吧。这个是开元大模型做的最大的贡献！而且呢，Llama3啊，现在有更强的推进能力和代码能力。但是我还没有尝试让他写代码，我让他试了些别的——他的安全性提升了。你别看他开源的，你可以弄到本地来，你说你让他干点坏事啊，干不了。我自己亲自测了一下，因为我在尝试写小说嘛，稍微写的不太合适了，他就直接告诉你说：“对不起，后边我没法给你写了。”你让他给你写一些黑客程序啊，一些这种有害代码呀，他都会直接拒绝你。这个是现在做得非常好的一点！但是我相信，这样的这种模型，你按道理说，你对他进行微调，或者对他进行PUA，还是有可能能够让他去做一些突破底线的事情。特别是这个模型现在到我们自己手里了，对，那我就可以反复PUA他，然后找到到底哪一个提示词可以把它这个坏的一面释放出来。这个事还是OK的。我现在是让他去写小说，肯定是写到一些过分的地方，他就退掉了，还没有找到刺激他的正确的提示词啊。这个我相信应该是很多人会去找的。超大规模的预训练数据——Llama3，最后告诉大家说，大力出奇迹，这条路依然走得通。扎克伯格花钱买了35万块H100，加上他原来所有的这些H100，然后呢，拿这么多的H100去进行训练，而且他的训练数据的量，是原来Llama2的好几倍啊。现在有15T的训练数据，这些鸽子里头的训练数据质量非常高。他们强调如何利用高质量的训练数据，比如用Lamar对所有训练数据进行驱虫。虽然有些数据质量好一点，有些差一点，但他们会挑选最好的。此外，他们利用Lamar生成新的训练数据，因此拥有大量由Lamar生成的训练数据。这表明大模型正在自我迭代，Lamar生成的数据被用来训练Lamar3。</p>



<p>当然，也存在一些潜在问题。例如，在对话中，模型可能会自称是GPT、Gemini或文心一言，因为即使通过大模型清洗训练数据，也未必能完全清除这些信息。对于版权数据，Meta的态度较为模糊。Open AI使用大量YouTube视频进行训练，而谷歌已指出这可能违反视频协议。Meta同样使用大量版权内容训练，声称部分数据得到授权，部分来自公开网络，这在法律边缘试探。尽管模型开源且免费，但起诉Meta并不容易，因此多数人选择针对Open AI。值得注意的是，尽管该模型支持30多种语言，但非英语内容仅占5%，中文内容的比例更少。\n所有英语之外的内容，就是5%。也就是说，英语内容是95%。是这样训练出来的一个东西。我尝试让他写小说，他经常还是会在中文小说里头加大英文，或者写到第几章以后，就后边都改英文了。这个… 现在肯定还是需要再进行中文微调。Lamari 二杠有一个专门针对中文的微调版本，对中文的支持会更好一些。但是既然他把这个东西拿出来了，就是让大家去微调的。在聊天的过程中，对中文的支持也没有那么好。当然，后面还有超大杯。现在我们能够拿到的是8B和70B，已经放出来给大家用了。8B的这个部分，我在我自己的机器上已经测过了，没有任何问题，而且速度很快。70B呢，你需要128G的内存才可以跑起来，我的机器跑不起来。但是呢，我到Poe上去试了一下，试的效果极烂。因为试的人太多了，把Poe的服务器给挂崩了。Poe没有给他放那么多的资源和测试，所以经常一点完了以后他就不动了。这个70B到底效果怎么样，我并没有进行很多的测试。其实还有一种测试方式是，你可以到自己到云服务器上去租。租一台4090，就是单4090显卡的云主机，一个小时大概两块多钱，3块钱人民币。如果不是有特别集中的使用，就不建议大家去租这个玩了。后边还会有多模态的大模型放出来。现在这两个还都是文本模型。前面也跟大家录过很多视频在讲，梅塔做了这么多年的元宇宙，在多模态这块的积累，其实是蛮深厚的。后面多模态的大模型出来，我们还是要去稍微的期待一下。因为我已经用梅塔AI去画了几张画了，效果其实还可以。我最近也试了字节跳动的绘画程序，什么视频程序，我都试了。然后也试验了阿里的通一千问的绘画，梅塔AI的绘画，其实现在效果已经很好了。你就这么想吧，stable diffusion的最新的版本的效果这么好，那么国内这些用Saberity future去搭模型，搭框架的，不管是字节的，还是阿里通1,000问的那个…\n效果一般也就上去了。虽然达不到像Mijili那么好控制，但是呢，也都还可以使用。谜坦AI的这一块呢，还是可以去试试。后面呢，还会有一个400币的模型会出来。400币是多少？4,000亿啊。4,000亿呢，现在还在训练和调整之中，还没有彻底弄完。我估计训练应该训完了，但是这种模型就是训完了以后，最后的这个调整过程是非常麻烦的。那么有可能开源。为什么说有可能开源呢？就是前面这个group one开源的时候，314币，3,140亿参数的时候，其实我是录了一条视频，马斯克还骂了一顿。我说，你开一个这样的东西出来，没有100万人民币的服务器，谁也跑不起来。你说你弄他干嘛使？而且还是个MOE的模型。MOE是什么？就是这种专家模型，就是它是由8个小模型凑的，每一次动两个啊，就是每问一个问题，它有两个小模型去工作。你即使这样，还是需要上百万人民币的服务器，才可以把它带起来。巴马3的400币模型，它不是MOE，它是个单模型，实实在在的有4,000亿参数。它不是说像group one那样，每次跑的时候，比如说我整个1,000多亿的参数，剩下都休息。这样的模型，估计至少要上千万人民币的设备，才有可能让它跑起来。所以这样的模型，到底最后会不会开出来，不好说啊。</p>



<p>梅塔AI呢，现在也放出来给大家试，就是大家可以到AI点梅塔.com上去试啊，AI点meta.com去试尝试这东西啊，已经可以去聊天了。而且未来呢，就是梅塔AI呢，会到全线的啊，美塔相关的产品里头去用。比如说你可以到WhatsApp, Messenger, Instagram就可以用。怎么用呢？你直接给他@梅塔AI，然后你就可以告诉他说…\n我跟谁谁谁在WhatsApp上聊天儿呢。聊着聊着我就哎，突然想到一个问题，问美美塔AI：“天气怎么样啊？或者有什么事啊？给我解一个什么什么东西出来。”他就干活去了。这个真的很棒！或者你在这个里头写一个斜线&#8221;imagine&#8221;，就跟咱们在那个discount里的调料制作过程一样，直接就能画画去了。现在这个功能已经在30多个国家的WhatsApp、Message和Instagram上上线了。还会在哪里出现呢？在雷鹏的梅塔眼镜上，或者在快速3上，也即将登陆。</p>



<p>现在Instagram上的修图工具也是调用的梅塔AI。你可以告诉它：“把这帽子给我从绿的换成红的，或者不要戴帽子，绿的不太吉利。”它现在已经可以执行这些任务了。我测试了一下，这个只吃英文。现在的维卡AI，你上去以后可以说：“我要试一下。”据说是在30多个国家开通了。然后我特别逗，用英中文提了问题，提完问题以后，吉塔AI用中文回答了。它噼里啪啦答完以后，屏幕闪了一下，那个回答的所有内容就没了，然后用英文告诉我：“对不起，我现在无法理解这个中文，等我知识更丰富的时候再告诉你。”它这样的一个东西，实际上是可以做到的，只是效果还没那么好，所以没正式推出。</p>



<p>大家要知道，Llama（Lama）其实一直是整个开源AI界里的领头羊。所以现在有很多人叫什么呢？叫开源GPT4来了。有很多人写了这样的标题，很多人都在想去做开源，但只有Llama氏，在整个的开源行业里头，真正起到了扛鼎的这个位置。为什么？因为所有的其他人，都是在拉马的基础上去做的。其实，拉马一出来的时候，并没有那么多响动。因为大家都知道，给你一个开源软件或系统，你要把它刨根问底并不容易。在拉马一刚出来的时候，你想去深入研究，这事儿是很麻烦的。到拉马2出来的时候，就已经非常厉害了，它彻底打破了垄断，打破了Open AI和Cloud这样的程序的垄断，彻底推动了开源文化。特别是在拉马2出来的这段时间里，比如我用的Olama，还有Lam Studio，各种各样的开源工具包，让我们可以在本地运行这些大模型，各种开源生态都搭建起来了。</p>



<p>这是从拉马尔开始的，而且为整个行业指明了方向。很多开源大模型直接用了Lama 2的数据结构。像我前面还去跟零一万物的Wechat录过一期节目，有人说，你们是不是抄Lama 2了？他们说没有，我们只是用了这个数据结构，但所有数据都是我们自己的，所有的训练也都是我们自己跑的，只是最后的结构与LIME2相似。现在大量的开源模型都是用Lamar结构的，无论你是用Lamar进行微调，还是从零开始训练，最后都会塞到LIME2的结构里。</p>



<p>现在，这真的给很多人创造了新的机会。比如零一八五、Matro等，都号称可能与Lamar2的架构有些像，但他们每一家都会在基础上做一些创新，比如调整某些参数，添加新的算法，提升效率或在特定环境里更好用。但底层都是拉马2，它彻底推动了行业变革，大批以拉马2为基础微调出来的模型应运而生。\n现在，各行各业都在运转。我去日本时也看过，日本当地的大模型，比如NTT的或像LINE这样的，大多数都是基于拉曼2进行微调后使用的。整个大模型行业中，真正赚到钱的基本上都是利用拉曼2进行训练而获利的。像百度、阿里这样的公司，可能还没赚钱，就连Open AI也在亏损。然而，利用拉曼2赚钱的现象很普遍。</p>



<p>李彦宏曾说，开源大模型会越来越低级，但这句话显然已经打脸了。Llama3发布后，我相信它无需达到400币，可能70币就已经能碾压文心言3.0或3.5。现在称为3.5，它没有任何问题，甚至可以碾压需要付费的文心言四，70币足以做到这一点。</p>



<p>我个人一直很支持开源，因为我的朋友是天空开物基金会的负责人，而我本身是做开发者关系出身，也是该基金会的顾问，所以我自然站在开源这边。不过，我要说的是，李彦宏，你怎么又在说这种大实话了呢？我遇到过很多次他这样直言不讳的情况。比如以前在盛大网络，我们起诉百度抄袭我们的书，特别是小说。盛大文学那时有一个系统，专门在百度搜索我们的小说，结果发现排在前面的不是我们的，我们就起诉。结果发现排在最前面的是百度文库，对此，李彦宏就说…\n“了说，你们这帮人就是来蹭我热度的。”<br>他们是一小公司，对于当时的百度来说，盛大确实是没有他大。所以他说：“你是一个小公司，你来起诉我，你就是想蹭我热度。你希望通过起诉百度这个事情，让更多的人来去看小说。”最后，李彦宏是怎么办的呢？他是把百度文库里边的所有小说全删了。法院也是判盛大胜诉了，啊，胜诉了我们获得了多少赔偿呢？50万人民币。这个就没法讲了，因为当时盗版的赔偿上限就是50万人民币。你说这个事情他盗版了对不对？他肯定不对。但是呢，我们需要什么？我们需要流量。你别看我们得到了50万人民币的赔偿，我们还胜诉了，但是每年盛大向百度花的钱，我们上这去投放，希望百度能够把盛大的小说，能把起点排头一个，每年花好几千万。那一年他就象征性的要退了我们50万。在这个过程中，我们通过起诉百度，100又可以得到大量的流量。然后啊，你看这个书应该到起点那边去看去，对吧，大家有这样的一个印象。这是第一次啊，瞎说大实话。其实他说的话呢，就是有道理啊，但是呢，很多跟大家的认知的，或者说这些道德他是不匹配的。</p>



<p>第二次赶上李彦宏瞎说大实话，又是我赶上了什么事呢？我当时离开盛大了，后来去了猎豹移动。到猎豹移动以后啊，我们开始做隐私保护，怎么能够让用户啊，把隐私保护起来，做了这样的一个功能。袁弘又上去瞎说大实话去了，说中国用户根本就不在意隐私，隐私保护这个需求就是个伪需求，你只要给他们一点点方便，他们就很开心的用隐私出来给你换。当时我们觉得这怎么可能呢，这个事太违反常识了。你跟任何一个人说你要隐私吗，他都说要啊。后来我们发现李彦宏又在瞎说大实话，是什么呢？我们跟用户商量说，你给我10块钱，我帮你保护一下隐私，行吧，用户说不给。隐私啊，我要，但是要钱，没有。它是这样的，所以保护隐私是个伪需求啊，你如果是个真的需求啊，那你就应该老老实实为保护隐私付钱。对吧，没有任何人愿意为这个事付钱啊。你说我现在要拿你的数据回来，你要去给我签这个用户执行同意书，签完了以后我拿你的数据去做预算了。但同时我给你提供了搜索服务，提供了其他的各种推荐服务，你干不干呢？啊，一帮用户就开开心心去干去了。对吧，所以李彦宏又在不对了。那么这一次呢，依然如此。什么叫瞎说大实话？就是真话，这说的都是真的，但是呢，有很多事啊，他叫可以做，但不可以说呀。对吧，李彦宏瞎说的大实话，就是你都可以这么干，而且我们在圈里的人呢，也都知道这事就这么回事，但是你不能拿出来说。对吧，你也作为一个BAT，虽然现在B稍微的这个衰落了一点，也算是国内大佬，你把这种大实话拿出来说，他是有问题的。而且还有一点是什么，就是大家老说他瞎说大实话呢，就是他每次干完了这事，在百度自己身上呢，也没得到什么好处。</p>



<p>那么李彦宏这次说的是什么呢？开源模型会越来越落后，这个事是什么意思呢？就是训练大模型的成本实在是太高了，特别是当它的底层框架确定了以后，你想去训练它，这个成本是非常非常高的，非常费钱。所以要什么呢？比如说Llama，从Llama2升级到Llama3，给大家指明了方向，大家向这个方向去前进。那么在这个时候大家再去训练，你说我连方向都没有，然后底层都不清楚，我们要从头开始做这个事情，那这个成本实在是太高了，至少中国企业很难去承担这个成本，即使是在Lama 2的基础上，说我用这个数学模型或者用这个数据结构，我重新去训练新的模型，这些公司其实也很难盈利。这个事是太难了。所以呢，如果大家的底层就这样的不动了，比如就蓝帽2这样不动了，就在这个基础上，这个吃老本，那么李彦宏说这话就对了，就是说你就越来越落后。我们不停地去寻找有这个底层开发能力的人，我们不停地去迭代、去更新。你的那些人就老是在蓝码2的基础上去做，但是现在，蓝码3出来了，大家又可以往前走一步了。对，但是这些人的底层都不是自己的。比如说华为说我今天做芯片了，那芯片底层是什么？底层是UP或者是台积电，你底层永远不在自己手里面，那么他的天花板是有限的。所以李彦宏说的这句话本身并没有大毛病，虽然Llama三帮所有的开源模型又往前升级了一步，但是你的底层依然不是不可控的。</p>



<p>第二个，李彦宏讲的是开源并不便宜。这个话，其实我作为一个这么长时间去推广开源的人来说，我是极其赞同的。你去使用商业服务，其实你省去了大量的成本，因为有人给你签服务协议，你只要交钥匙就完事了。你要是想去做开源，你还要雇开源的程序员，然后这个人今天开心了，明天不开心了，后天你发现面试的时候看走眼了，这个成本是非常高的。而且，开源系统底层还有很多的不确定性。其实闭源系统也有bug，但是它处理方式是什么？我给你签一个服务协议，有bug你给我改去，我不管了。对，但是开源系统有时候有bug，里面他懒，没人理你，对吧，这个事是有可能的。所以开源，使用整个的开源系统是非常贵的，这个是我认同的。然后呢，是闭源才有商业模式，这件事其实没有那么认同。为什么呢？就是开源大模型通常在商业模式的周期上，它是比较漫长的。从拉马尔出来，一帮人开始弄，然后最后能挣到这笔钱，可能也得要个一两年的时间，你才能把这个钱挣到手，所以他是非常漫长的。而且呢，到现在为止，梅塔自己其实也没想明白，怎么用Llama去挣钱。梅塔虽然是Llama一、Llama二、Llama三都出来了，但是你说梅塔，你在这里头收着钱了没？他也没收着，对吧。而且他都没想明白，说我到底怎么把钱收回来。只是谁挣到钱了，就是我拿Lamar去再训练新的模型，比如我训练了一个医药的模型，或者我训练了一个移民中介，什么留学中介，我先练了一个这样的模型，就这个是能挣点钱的。但是你说梅塔自己怎么挣钱，不知道，对吧。所以想去靠开元大模型就直接挣着钱的，谁也搞不清怎么玩啊，包括像通1,000问，对吧，他怎么挣钱呢？他最后是说，哎，你们都用通1,000问吧，我是做云计算的，反正你都得上网来，用来你买我的云主机，我我通过卖云主机的过程再把钱挣过来，对吧，他是这么来挣这钱的。</p>



<p>所以你做从以前问，这到底是挣了钱没挣着钱，或者说我的这个云算多卖了多少，这个是一笔糊涂账。而且阿里在挣钱的方式是什么？就是我把所有这一圈子里头做这个大模型的全投资一遍，然后你们通通都上我这阿里云上来去干活去，我把阿里云的这个业绩做上去，任何人甭管我是用Kimi啊，是用什么mini Max呀，都上阿里云上用去，你们就用上阿里云去充值，不就完事了吗？对吧，阿里是挣这个钱的。但梅塔到底怎么挣这个钱，他自己也没想明白，所以它这个生命周期非常的长。然后大模型跟开元Linux是不一样的，跟安卓也不一样，实际上，最主要的开发者就是梅塔一家，不是一个真正大家一起协同开发的产品。这是李安红讲的，我觉得这句话呢，说的也非常正确。现在大家用的各种开元大模型，基本上都是在拉嘛2啊，或者是现在马上要出来拉嘛3啊，在这个基本上改来改去。我估计现在凌医万物的小伙伴们应该都在加班呢，对吧，拉嘛3出来以后赶快拆，拆完了以后，那么怎么能够重新去训练一个新的模型。怎么能够让这个模型的效率提升呢？我现在等着使用他们的新模型。在整个过程中，真正愿意做底层、愿意在底层上做前瞻性工作的公司，其实是没有的，或者说很少很少。听说质谱清音使用了全新的技术，但具体如何还不清楚。很多其他模型其实都是从Lamar借鉴了很多。李彦宏还说，既然不赚钱，为什么要做大模型？我觉得至少在中国，这种做法是对的。你说Open AI，像山姆奥特曼，马斯克，他们为什么要做大模型？是不是就是为了赚钱？这个我们不得而知，毕竟我们和他们不在同一个高度上，不能乱讲。</p>



<p>那么，构建国内最强的大模型，是李彦宏现在想要去做的事情。他第一个发布，哪怕被批评得一无是处，也是第一个尝试的。他穿着一条特别花哨的皮带，就这样上去了。甚至有人评论，他穿着白衬衫，像白衣飘飘的样子。他希望成为国内最大的，甚至在国内外都是最强的大模型。在国外，这个说法我觉得可以接受，就像众英雄围攻光明顶，光明顶就是GPT4，包括像Cloud这样的产品，它们是最强的，无可超越。即使是正在赶超的Gemini，也是必圆产品。而Gemini开源出来的那部分叫Gema，它并不是Gemini那个模型。\n国外的情况是这样，但国内的情况真不好说。为什么呢？因为国内的模型中，百度和Kimi是必远的。百度的使用体验对我来说太差了，太难操作。相比之下，Kimi我用得比较多，确实比较好用。此外，通易千问、百川智能、质朴清音、灵异万物、昆仑万维、360和猎豹都是开源的模型。我尝试过通易千问和一万物这两个开源的，以及一个闭源的。目前我觉得通易千问，尤其是千问1.5的32B版本，非常好用，运行速度非常快，给人留下深刻印象。</p>



<p>现在我主要在用通易千问和Kimi。不过Kimi有一个缺点，就是它经常在运行时报错，说服务器太忙，服务不过来。当你直接向Kimi提问几次后，它会告诉你它太忙了，让你稍后再问。这种情况时有发生。</p>



<p>百度一直自称是国内AI领域的领头羊，根据2023年第四季度的财报，其智能云业务营收为84亿人民币。但要注意，这其中包括了云计算和其他业务，比如智能汽车（自动驾驶）的收入。真正由大模型为百度云带来的收入增长，可能只有6.6亿人民币，这对百度来说可能只是杯水车薪，烧不了多久。所以这对百度来说，无疑是一个相当亏损的业务。而且…\n文心艺言嘛，为百度广告系统带来了数亿元的增收。但这个呢，就是百左手倒右手啊，哪一部分是由文心艺言带来，哪一部分是广告系统，就直接正着了。这个不好说啊。每天呢据说有5,000万次调用，这个我觉得也挺夸张的啊，真的我不知道为什么会有这么多人使这东西，因为那玩意真挺难使。预计2024年，大模型的收入贡献会成10倍，就是去年大概是挣了不到10亿美啊，人民币啊，今年大概会挣到几十亿人民币，在这样的一个水平上。</p>



<p>那么李彦宏为什么说这个话呢？啊，第一个，整个行业其实都不挣钱，包括他自己。就是做了半天大模型也没挣着钱，开元啊肯定是没挣到钱，甭管是刚才咱们讲的，灵异万物也好，百川啊，昆仑，360猎豹在这块估计挣到的钱都不多。360跟猎豹没准还能挣到点，因为他们就是纯纯做图币去了。他们自己那个开元模型，到底拿多少钱训的，而且他也不会推这个东西啊，推开源模型本身的成本也很高。不光是说你本东西开源出来就会有人用啊，然后通1,000问，刚才我讲的，他是通过另外一种方式。</p>



<p>之前呢咱们不管他，整个行业没挣着钱，开源也没挣着钱，但是呢，开源同时会极大的影响闭园挣钱。什么意思呢？比如说我这有一个公司，现在需要一个大模型来给我干活，正常你应该怎么办呢？我上百度上去买去啊，或者上open AI，上微软去买去啊。现在人说哎，我这有开源的啊，那等有很多的系统集成相关的公司，就可以把开源的这些大模型直接集成到我的系统地区了啊，我还可以给你做私有化部署，就这些人能挣着钱。现在Llama已经说了，可以免费商用，你拿去使吧，我不管了，等于把所有的这种中小规模的系统集成商，一把就全赋能了啊，他们挣钱去了。但是这些人挣钱的时候，这个单位就不会再去花钱干嘛呢？买这个open AI，买微软买百度了。所以他就一定要出来讲说，开元是没戏的啊，你们就老老实实买我的这个闭元的就好了。而且呢，开元有的时候啊，你避免不了，为什么呢？拿开元做定制是现在唯一的挣钱路径，而且这个是百度最受不了的，因为这块真的是在吃他的肉。哎，中国大模型创业呢，其实有很多困境的。第一个，成本非常高。尤其是合规成本，非常高。如果你说错了话，是要被封号的。</p>



<p>第二个，中国做任何创业，都必须马上挣钱。你如果说，我想先去折腾一段时间，过个10年再挣钱，想都甭想。像Open AI这样的公司，在中国是不可能成功的。为什么？因为大家在建立时是非营利组织，压根就没想明白该怎么挣钱，然后就四处融资。融完一大笔钱以后，就坐着吭哧吭哧地做。确实很多年一点收入没有，而且还烧钱烧得贼快。这个在中国是行不通的，必须马上挣钱。而且市场有限，现在在中国基本上没有C端市场。所有愿意出钱、花钱再去做工程做项目的人，大多是政府和大企业。</p>



<p>政府和大企业的客户争夺，不完全依靠技术。还有很多其他相关的，或者不相关的，商业的或者非商业的因素影响。最后谁中标，谁没中标，就是这样。</p>



<p>所以，为什么一帮中国人一听说Lama开源了，然后自主研发、自主知识产权的国产大模型就出来了。出来以后，他们去那些大的甲方那里去中标。其实李彦宏在骂的就是这帮人，就是你们不要去抄袭人家的东西，然后自己号称是自主知识产权。</p>



<p>在中国到现在为止，拿到牌照的大模型有多少？117个。如果有这么多大模型都拿到牌照了，中国有这么多数据，有这么多GPU让他们去训练，能出这么多模型来吗？或者花了这么多钱去训练吗？没有。大家拿的，都是Lama改的，全是这样。就是你拿数去看就行了，你不用管他到底是不是这个数。一看就知道，有很多的数据，你只要拿下来比，你就知道说，如果所有这些大模型都是自主研发，自主知识产权，从拿数据开始，一分钱一分钱的去训练出来的，那么这事是不可能的。你像我去问过零一啊，什么这些人，就是他们是从头拿数据去训练，虽然他底层的数据结构是Lamar的，但是那也是花了很多钱的。就是你不融到几亿美金，根本就不敢干这活。但是你想，中国有多少个融到几亿美金的大模型公司？刚才我们讲的是有牌照的，还有很多没有牌照的。没有牌照就是不用动外，对外服务啊，我还是可以比如说做一个什么，颁个奖然后在对内服务，这事还是有的。可能中国现在有几百个，甚至上千个大模型在跑。所以啊，这件事情呢，对于这些做大模型的人来说，是比较难受的。在这一块上，没准最后阿里能把钱挣着，就甭管你用谁的大模型，你到阿里云上来租我的服务器吧。而且呢，李彦宏的意思就是就这么点钱，就这么点甲方，你让百度张了吧。大家都是自主研发，自主知识产权，这还是看谁的资本硬吧。百度在这种竞争中呢，有一定的优势，毕竟排在这，但是呢，你有的时候真备不住谁七大姑八大姨说，哎，我这事我能搞定啊，你就不用用百度了是吧。这是李彦宏出来瞎说大实话的一个原因吧。就是大家注意啊，我每次讲李彦宏出来瞎说大实话的时候，实际上都是百度遇到了一些问题的时候，挣钱挣的不够多了啊，或者说是有一定压力的市场发生变化了啊。第一次是百度希望做内容营销，发现他遇到了版权的问题，出来瞎说了一个大实话。第二次是什么呢？百度希望做移动，结果发现移动里头有一帮人去搞这个隐私保护，又搞了一次。现在呢，是啊，去做大模型了，然后发现一帮人在喊开元对吧，他又又要出来瞎说大实话了啊。干了这么三件事，咱们最后讲一下，Lamar3到底会带来什么东西吧。Lamar3呢，会带来哪些改变啊？第一个，整个开元大模型行业会迎来爆发式升级，就所有做开源大模型的人…\n都会在未来的可能两三个月里头，就会升级自己的大模型。大家可以看看谁升级的快，哎，升级快的，这个就属于技术力比较强的。因为你想，你给你一个新的大模型，整个各种系统架构都是变化了，都是新的，效率更高，质量更好。大家就一定会去研究、分解，然后再去拿这个相应的训练方法，相应的注意结构，再去训练自己的模型。所以到未来，可能我们再使用在本机上三十几币的这种模型，就完完全全可以接近到GPT4的一个水平，超越这事还不敢乱说。然后你在服务器端可以跑到的这种70币模型，基本上是可以超越GPT4的。大概就是可以到这样的一个程度。</p>



<p>而且呢，各种Lama3的微调模型会快速爆发。就是我先不去训练新的，我现在这个基本上进行一定的微调，这些可能在几周之内就会疯狂上线了。然后呢，行业应用可能会快速的提升，这个可用性就提升了。比如说我原来是给建筑业用的，给银行用的，给保险公司用的，那么他们可能会发现，我这个升级了，升级了以后，这个系统一下就变得不是那么人工智障了，就变得好用了。这件事情应该可能在未来的一两个月里就会发生。</p>



<p>这件事情之后，从头训练自研大模型的公司呢，这个日子会稍微的再难那么一点，包括百度自己。这就是Llama3可能会带来的改变。而且我相信Llama3出来以后，在未来的半年里头，会有大量的新的公司出来，我要创业，我要再去做大模型相关的创业去了，一定会有人干这个事的。对于我们来说呢，可能还可以继续期待一下GPT5。我们不期待GPT5到底能够带来哪些能提升什么，真正需要的是GPT5可以给整个的行业再指明一次方向，大家向这个方向冲，这个是可以证明的。那么在这个过程中呢…\n这方向明确了，人跟钱都不缺啊。有很多人说我们很聪明，我们要干这个事情，还有很多钱啊，等着冲上去说：“哎，方向指明了，赶快上！”就想这个Solar大模型，现在还没有人上来用上吧，但是已经有大量的视频模型，已经冲上来，可以给大家使了。所以啊，Open AI，你指明方向就可以了啊。咱们也可以看看，到什么时候真的会出现能源短缺吧。其实现在大家在叫做芯片短缺，等芯片灯真的都充满了以后啊，咱们看看，是不是咱们会把所有电用光啊。这就是咱们今天讲的第一个故事啊，就是Llama三来了，是不是给李彦宏打脸了啊？但是我到现在还是认为，李彦宏说的话啊，就是真的是瞎说大实话啊。大概是这样的一个情况。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
