<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>算力成本 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%e7%ae%97%e5%8a%9b%e6%88%90%e6%9c%ac/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Tue, 04 Nov 2025 00:41:40 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>算力成本 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>OpenAI上市之时，AI泡沫破灭之日。130亿美金的年营收，却签下了1.4万亿美金的采购订单，托起了整个美股市值。AI泡沫破灭，谁会倒下，谁会浴火重生？</title>
		<link>https://lukefan.com/2025/11/04/openai-ipo-triggers-ai-bubble-burst/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 04 Nov 2025 00:40:18 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AI bubble]]></category>
		<category><![CDATA[AI泡沫破灭]]></category>
		<category><![CDATA[AI行业]]></category>
		<category><![CDATA[bubble burst]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[dot-com bubble]]></category>
		<category><![CDATA[GPT API]]></category>
		<category><![CDATA[investment]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[OpenAI IPO]]></category>
		<category><![CDATA[OpenAI估值]]></category>
		<category><![CDATA[OpenAI改制]]></category>
		<category><![CDATA[Sam Altman]]></category>
		<category><![CDATA[trillion-dollar IPO]]></category>
		<category><![CDATA[valuation]]></category>
		<category><![CDATA[上市对赌]]></category>
		<category><![CDATA[公益性盈利公司]]></category>
		<category><![CDATA[吞金兽]]></category>
		<category><![CDATA[山姆奥特曼]]></category>
		<category><![CDATA[微软云]]></category>
		<category><![CDATA[微软投资OpenAI]]></category>
		<category><![CDATA[科技投资]]></category>
		<category><![CDATA[科技股泡沫]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[软银投资]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2837</guid>

					<description><![CDATA[💥草！OpenAI终于能上市了，但兄弟们快撤！这哪是AI革命？纯纯的泡沫炸弹啊！💸
软银225亿先打钱救急（10月25日火速输血），OpenAI现金175亿快烧光——半年亏100亿美金，吞金兽秒变“喷钱孔明灯”？🤯
重点炸裂：吹了1.4万亿订单，实际年收才130亿！增长16%？互联网公司这数据早该凉透！2027年上市日=泡沫破灭日，韭菜们哭晕在厕所😭。微软笑裂：投130亿变1300亿，白嫖GPT API爽到2032年，还收20%过路费，血赚到哭！
比尔盖茨说：别慌，这是互联网级泡沫——烂公司陪葬，OpenAI浴火重生🔥。但估值吹到4万亿？英伟达都颤抖！
细品：收入跑不赢烧钱速度，泡沫大到能吹爆太阳☀️。兄弟们，信我，2027年见真章！点赞预言泡沫破之夜，评论区蹲瓜👉 #AI真相 #韭菜自救指南
（PS：山姆奥特曼哭穷？130亿收入也好意思？笑死！🤣）

OpenAI上市之时，AI泡沫破灭之日。130亿美金的年营收，却签下了1.4万亿美金的采购订单，托起了整个美股市值。AI泡沫破灭，谁会倒下，谁会浴火重生？

标题1：OpenAI上市即巅峰？万亿美金订单承诺背后，仅16%年营收增长率揭示了残酷真相｜AI bubble OpenAI IPO bubble burst AI boom dot-com bubble
标题2：年亏百亿、营收增速仅16%，OpenAI如何支撑4万亿美金上市梦？山姆奥特曼的豪赌或引爆下一场金融危机｜OpenAI IPO bubble burst Sam Altman stock market investment
标题3：AI热潮 vs. 互联网泡沫：比尔盖茨警告成真？OpenAI改制成功，却为微软埋下百亿亏损的定时炸弹｜bubble burst AI boom dot-com bubble tech bubble Microsoft
标题4：揭秘OpenAI改制真相：上市之路已铺平，但为何说这或是英伟达与微软联手吹起的最大科技泡沫？｜AI bubble OpenAI IPO valuation tech bubble Nvidia Microsoft
标题5：你的AI投资是机遇还是陷阱？OpenAI万亿订单若无法兑现，恐将重演2000年互联网金融狂热的崩盘｜AI bubble OpenAI IPO bubble burst dot-com bubble financial crisis
简介：OpenAI终于完成改制，为其备受瞩目的OpenAI IPO扫清了障碍，估值冲向新高。然而，这份繁荣之下隐藏着巨大风险：年营收增长放缓至16%，却背负着高达1.4万亿美金的算力订单。本文将深入剖析Sam Altman的这场豪赌，探讨这轮AI热潮为何可能成为一次巨大的AI bubble，以及它对未来科技investment格局的深远影响。
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="OpenAI上市之时，AI泡沫破灭之日。130亿美金的年营收，却签下了1.4万亿美金的采购订单，托起了整个美股市值。AI泡沫破灭，谁会倒下，谁会浴火重生？" width="900" height="506" src="https://www.youtube.com/embed/HChYzQjosqg?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。今天呢，咱们来讲一下OpenAI在10月28日最新出炉的新架构。</p>



<h2 class="wp-block-heading">OpenAI的新架构：告别非营利，拥抱上市</h2>



<p>它真的是已经改制成功了，已经不再是被非营利组织控制的一个很奇怪的架构了，可以去上市了。OpenAI的非营利组织呢，成为了新的公益性盈利公司的股东，这个非营利组织叫做OpenAI基金会，占这个OpenAI的公益性盈利公司的26%的股份，挣了钱你拿去分。OpenAI的这个公益性盈利公司呢，就可以开开心心的去挣钱了，不再受非营利组织的控制了。</p>



<h2 class="wp-block-heading">什么是公益性盈利公司？</h2>



<p>什么是公益性盈利公司呢？就等于我一边可以盈利，另外一边呢，我要兼顾公益，稍微有点纠结的一个公司。像我们比较熟知的Anthropic，就是一个公益性盈利公司。另外一个比较有名的呢是XAI，它在注册的时候是公益性盈利公司，但是后来放弃了。2024年说：“我们不玩了，我们就老老实实当公司了。”为什么整了这么个事呢？因为后边他要去收购X，XAI把X收购了，那就是老老实实当一个公司就完事了。公益性盈利公司是可以上市的，这个非常非常重要。</p>



<span id="more-2837"></span>



<h2 class="wp-block-heading">独特的治理结构：基金会的绝对控制权</h2>



<p>现在换完了以后，是不是非营利组织就像是他拿到的股权一样，只有26%的投票权呢？不是这样的。虽然他占股是26%，但是非营利组织有权任命这个公益性盈利公司的全部董事会的董事，它跟其他的公司还是不一样的。所以在最新的OpenAI的可以上市的这个主体里头，微软、软银、英伟达，包括山姆奥特曼都是没有董事席位的，所有的董事通通都是由这个OpenAI基金会来任命的。其他的这种正常的公司，大家都是按照各自的股份比例来去分，我占5%是不是进董事会，或者咱们开个股东大会，咱们来选董事吧？很多上市公司用的是这样的一个方式来生成董事会的，但是它这个呢不一样的，它是由非营利组织直接任命的董事，这个是差异很大的。</p>



<h2 class="wp-block-heading">5000亿估值与股权分配</h2>



<p>现在呢，新的这个机构是估值接近是5,000亿美金。5,000亿美金里头呢，员工跟其他的这些投资机构一共占股47%，它的非营利组织占26%，微软占27%，基本上是这样的一个架构下来。那你说这个里边山姆奥特曼，他在公益性盈利公司里不占股份，那他这CEO怎么办呢？他的CEO职位是由上面这个基金会直接任命的。正常情况下这个CEO应该是怎么产生的？是由董事会来决定的。但是呢，在它这个架构里头，整个董事会都是由上面这个OpenAI基金会来去确认的。</p>



<h2 class="wp-block-heading">软银的对赌：225亿美元的及时雨</h2>



<p>10月28号最新出炉的架构公布出来以后，他就解决了一个对赌，就是对赌又成功了。所有跟赌相关的事呢，一定是有成的有不成的。他完成了一个什么样的对赌？就是软银说，我要再给你225亿美金的投资，但是我们有一个对赌条件，就是你必须要能够上市，要把这个架构搞定。而且软银还很仗义，按正常情况下，应该是你对赌完成了，我才开始付钱。但是软银说：“我先给你付钱吧，我看这钱好像也比较紧张了。”他呢，10月25号就开始付钱了。但是这种钱，不会说我把225亿一把全打进去的，就是我承诺225亿，我先打一部分进来。至于打了多少呢，我没看到具体的数字，但肯定是已经开始打了。28号说：“我们把这事搞定了”，对赌完成了，后边这225亿剩下的钱就可以顺畅的进来，不会有任何问题。OpenAI呢，作为一个巨大的吞金兽，真的是吞金兽，没有这些现金的支撑的话，是肯定没有办法玩下去的。</p>



<h3 class="wp-block-heading">关于其他大股东</h3>



<p>你说还有一个大股东怎么没提呢？英伟达的1,000亿美金，这算多少股份？这个没法确认。英伟达这1,000亿美金呢，是要等着OpenAI去提货，提100亿美金的算力卡出来，然后呢，我在这1,000亿美金里头记个账，100亿提走了，然后看一下OpenAI的估值多少，或者是市值多少。你如果上市了就是市值，没上市就是估值，然后呢，我把这100亿算成你的股份。所以它这个股份到底最后算成多少是没法算的，我们就不在这去讲它了。</p>



<h2 class="wp-block-heading">马斯克的诉讼：未完待续的私人恩怨</h2>



<p>那你说马斯克消停了没？马斯克那诉讼完了没有？马斯克一直在说，说我应该在里边占一半，我前期投资的，我起的名字，我找的人，我给了他们的想法，我教会了他们要做什么。那现在他们把一个非盈利公司变成了一个公司，背离了我的初衷，那我要起诉他。现在这事还没完，还在这折腾呢。但是呢，现在普遍把这件事情看成是马斯克跟山姆奥特曼之间的一些私人恩怨，所以呢并没有影响公司的改制，公司还是算改制成功了。山姆奥特曼呢也在说：“咱能和解不？”但是和解这个事呢，没有那么容易了，看最后怎么个和解法吧，反正一步一步在往前走了。</p>



<h2 class="wp-block-heading">微软的角色：痛并快乐着的“最大赢家”</h2>



<p>微软呢，已经开始为OpenAI这件事呢，在财报上记录亏损了。刚才我们讲到它是吞金兽嘛，微软是投了130亿美金进去，已经到账了110多亿。而且微软这个钱呢，它好多就压根不是现金，也是一小账本，OpenAI上微软云上要算力来了，给你记一个账，“你又支走了10亿美金的算力”，它是这么来使的。130亿美金的投资，现在已经值多少钱了？已经值1,300多亿美金了，已经涨10倍了。但是呢，你微软不能把这玩意录成利润，OpenAI亏损的这个钱，你要把它录成亏损，它是这样来去记录的。所以呢，对于微软来说呢，也是痛并快乐着吧。</p>



<h3 class="wp-block-heading">财报中的亏损记录</h3>



<p>现在呢，他记录了多少亏损呢？是三个季度录得了31亿美金的亏损，第三季度的话应该是11-12亿美金吧。按照微软在OpenAI里头占27%的股份来算的话，OpenAI一年大概能亏个100多亿美金，还是很吓人的一个数，就是他挣的钱永远没有亏的钱多。投资占比19.9%，它亏了赚了，是不需要把它披露在财报里的，不叫重大影响。但是你占27%，你就必须把它披露在财报里头，算重大影响，OpenAI亏了钱，你也得算自己亏了。所以微软每一个季度录得了11-12亿美金的亏损。但是微软每个季度大概挣200多亿美金，所以这点亏损对于他来说不算什么大事。而且这样的亏损你记在账面上，以后微软的股票会涨的，因为微软在这个上面赚便宜赚大了。</p>



<h3 class="wp-block-heading">微软如何“赚大了”？</h3>



<p>你说怎么赚便宜赚大了呢？你说我光是说我投了130亿，现在值1,300亿了吗？你说一个没上市公司，你说你值5,000亿，你就值5,000亿吗？这个事不能这么算。但是我们要看一个其他的数字：OpenAI的营收20%是要交给微软的。甭管你赚多少钱、亏多少钱，你只要收到手了，你就要把20%交给我。这个是微软一直在收的，而且一直会收到2032年，后面还有七年，这个钱会一直收下去。这个对于OpenAI来说，是一个非常沉重的包袱。原来呢，这个钱是要收到2030年，或者收到AGI实现。现在说：“我们谈一谈，收到2032年吧”，多收两年。待会咱们再讲，为什么会多出两年来。</p>



<p>然后呢，GPT的无状态API独家授权。你想使用GPT的API，你就老老实实的上微软云上去用去就可以了。你说我一定要在谷歌云上，或者亚马逊云上，去用这个GPT的API行不行？没问题，也能用，但是你调用的API是在微软云上调用的。那差异在哪呢？就是慢。你一定是在微软云上调用GPT的这些API，速度才是最快的，因为在一个机房里头。</p>



<p>那你说这个什么叫无状态的API呢？就是每一次我调用的时候呢，是没有前后文的。我不知道你上次说了什么，我也不知道你是谁，你每一次调用的时候，你都需要告诉我：“我是谁，咱们上面说到哪了”，然后我们现在开始来干活，这个东西叫无状态的API。所以呢，它的所有的这种用户具体的隐私信息、上下文，它是抽离的，你可以把这些东西放在谷歌云上、放在亚马逊云上、放在其他地方都没问题，但是无状态的API就是在微软云上独家的。这个独家API的授权，现在呢也是延长两年，从2030年一直延长到2032年。而且这个价值，我们直接从微软云的快速业务增长上就可以看出来。你现在谁家的这个财报挣了钱了、亏了钱了，没那么重要，你看你到底哪挣的、哪亏了。我广告收入挣钱了，这不叫事，人家不会让你的市值往上涨的。那你说我云计算赚钱了，云计算增长的很快，这一块它会往上涨的，这个是AI时代里最大的这种差异。所以微软云就是靠GPT的独家的API授权得到了长足的发展，这块是非常非常强的。</p>



<p>那微软挣的另外一笔钱，也是很大的一个大头是什么呢？就是微软使用GPT的大模型，因为在他自己家的云上嘛，是不需要付版权费的。这个就赚大了。你正常情况下，虽然这些东西是在微软云上，但是它是属于OpenAI的，应该是给OpenAI的钱，OpenAI拿到这个钱以后呢，再去付微软云计算的这个钱，它应该是这样的一个正常运转方式。但微软说：“反正都是在我家，你就别数了，我也不告诉你我用了多少”，这个它就不用付钱了。所以呢，微软自己用GPT的这些大模型，它只需要付自己云计算的算力成本就完了。所以这个微软还是赚大发了。这个协议也是延长到2032年。</p>



<h3 class="wp-block-heading">利益的交换</h3>



<p>为什么会有延长呢？我们以前做这种投资谈判，或者说这种股权架构谈判的时候，有非常非常多的细节。甭管是有价的还是无价的，可计量和不可计量的这些利益呢，会相互之间转换。比如说我白用你的API，我白用你的版权，这个东西你说到底换算多少钱，你其实算不清楚。因为office里头是有pilot的这些功能的，所以呢，它跟谷歌的workspace去竞争的时候，它有优势，它用户量上去了，而且大家去订阅office套餐的时候，会去订阅更高级的套餐，因为有AI这个套餐嘛。这个里头到底有多少钱是由OpenAI挣走了，这个事其实你算不清楚。而这个里头，高级套餐订阅里头，有多少钱是OpenAI的，这还能算。但是你说我获得了竞争优势，这玩意你咋算？你算不明白。包括独家API这个权利，我通过这个独家的API，在云计算竞争里头，我跟谷歌、跟亚马逊竞争，我赢了，那这个里头你到底算多少钱？你也算不清楚。</p>



<p>所以这些里头，可计量和不可计量的利益一定是进行转换了。那么换了是什么呢？就是微软同意了，把OpenAI的非营利组织这个架构给它脱掉吧。微软前头最早期先投了10亿美金，后来投了100亿美金，最后承诺投到130亿美金。他后面这个独家就没有了，原来微软在里头占49%，但是只占到了27%，那肯定微软说我亏了，你就要在其他地方给我补回来。补回来的呢就是这个东西，就是多两年。</p>



<h2 class="wp-block-heading">悬而未决的“AGI条款”</h2>



<p>当然了，微软在这里头还有一个坑是什么呢？就是AGI。咱们前头讲过，什么时候OpenAI宣布AGI实现了，微软这些条款就要截止。原来很多人都猜，微软在这一次里头会把这条条款删掉，但是这个条款还在里头。所以呢，这个条款肯定对于山姆奥特曼来说是非常非常重要的，他肯定还要再拿这个条款继续去跟微软博弈。也许下一次再有一个大的融资，或者我的组织架构再发生什么变化的时候，这个条款就没了，但是这个条款失去了以后，还能再换点别的回来。</p>



<p>至于怎么算AGI这件事呢，微软的CEO纳蒂亚已经说了，说现在AGI已经没有什么意义了，因为对于不同的人来说，AGI有不同的标准。现在呢，应该是微软跟OpenAI之间呢，要去做一个这样的审核小组，一旦OpenAI觉得这个东西叫AGI了，大家就来开会，来审核一下这东西算不算。因为一旦算成AGI了，刚才咱们讲独家的这个授权、免版权费、20%收入直接上交微软，这些东西就全都终止了。所以这个事对于微软来说还是很疼很疼的，现在还可以拿捏住它。</p>



<p>OpenAI你说我自己还建一大堆机房呢，都给微软独家授权了，为什么自己还建？特别到Oracle那建这玩意去。现在呢，GPT5、GPT6这些，在AGI实现之前，或者2032年之前，都只能在微软云上。Sora或者是agent，或者是Codex，其他的这些，你可以自己外上外边用去，这个微软是不管你的。在这一点上呢，我觉得微软已经让步了一部分。微软原来在Sora 1出来的时候：“你这个东西我也要，你也得独家给我用。”现在Sora 2出来，微软说：“你可以拿出去玩去了，我不管你了。”但是呢，我把GPT的这个延长两年，是这样来算的。</p>



<h2 class="wp-block-heading">OpenAI上市之日，就是AI泡沫破裂之时？</h2>



<p>下一件事，OpenAI上市之时，就是AI泡沫破裂之日，这是咱们的标题。为什么会讲这个话呢？大家看看OpenAI挣了多少钱。前面我们讲了，OpenAI是一个吞金兽。</p>



<h3 class="wp-block-heading">增长乏力的营收</h3>



<p>今年上半年收入43亿美金，43亿美金其实不少了，但是它有一个问题是什么呢？增长很慢。今年上半年跟去年上半年同期比较的话，只增长了16%。对于一家这么新兴的企业来说，这个增长真的不算快，这个是非常非常危险的一个数据。每年增长现在还是两位数，但是它第一位是1。互联网公司同比增长百分之十几，这样的一个增长率，股价都是要下跌的。你作为一个还没上市的AI企业，最新兴的当红炸子鸡，年同比收益率增长只有百分之十几，稍微有点说不过去。</p>



<p>预计今年收入是130亿美金，但这一块呢是别人给他预测的，因为前面已经过了三个季度了吗，还有第四个季度，所以大家觉得你可能今年130亿美金。山姆奥特曼呢出来辟谣了，说：“胡说八道，我们挣的比他多的多。”但是具体挣了多少呢，他也没说。但是我觉得再多呢，他应该也挣不到200亿美金。</p>



<h3 class="wp-block-heading">巨额亏损与万亿承诺</h3>



<p>那你说我们管他叫吞金兽，他到底亏了多少钱呢？上半年光研发支出67亿美金，就是我去雇工程师，这一块支出是67亿美金，其他什么算力、投资支出，这些还没算在里头。所以呢，他前面三个季度应该是已经亏了100多亿美金了。就是说我挣了一百几十亿美金，花了200多亿美金，最后我是亏了100多亿美金。这个事儿也不是不行，还可以，但是现在问题在哪呢？就是OpenAI自己签署了一大堆的这种协议，说我要上OpenAI购买算例，我要到星际之门买算例，我要去谁谁家去定制芯片去，我要到这个英伟达去买芯片，他签了一大堆这东西。2025年预期收入130亿美金，现在英伟达已经跟人签的协议，不是口头的，是签了协议的，1.4万亿美金，100倍还多一些，非常非常恐怖的一个数字。</p>



<p>但前面的OpenAI自己不上市无所谓，别人就拿着OpenAI的协议，我就去股市上吹牛了，然后股票我就涨了。比如Oracle拿了一个几千亿的OpenAI的算力租赁合同，我的股票“蹭”就涨了，还把这个拉里·埃里森短暂地涨成了世界首富。那以后OpenAI自己也是要上市的呀，那你上市了以后，这个数字你是要对齐的呀，你自己的财报都是要公示的。前面Oracle也好，英伟达也好，AMD也好，都可以在自己的财报上去披露，说我从这个OpenAI这拿到了多少订单，这些东西它的股价都涨了。最后OpenAI也上市了，说来看看后边的财报，我们准备什么时候来兑现这些交易。你没法兑现。你现在一年挣100多亿，你这1.4万亿你咋兑现？你根本没法整。而且刚才我们讲了，他这个最大的问题不是挣得少，最大的问题是长得慢。按照现在这个一年涨百分之十几这个速度涨下去，你就算涨到2030年，我估计也就是个几千亿美金，你上不了万亿美金。</p>



<h3 class="wp-block-heading">2027年上市计划与现金储备</h3>



<p>目前呢，OpenAI计划是2027年上市。为什么是后年上市呢？就刚才咱们讲了，OpenAI挣了多少钱、亏了多少钱，有好多亏的钱呢，其实也不是现金。比如说我从微软那划了这个算力过来了，或者说我上英伟达那去划了显卡过来了，或者我上AMD那去划了算力卡回来了，这些钱都没跑。包括他的研发支出，那你说研发支出肯定是现金？不对，研发支出我还可以给股票呢。5,000亿美金的OpenAI的公司里头，有47%是员工持股，所以它好多东西并不是钱。</p>



<p>目前OpenAI手里头还有多少现金呢？现金才是最重要的。还有175亿美金的现金，按照当前的速度，还够他玩一年多的。再加上软银的225亿马上就可以给进来了，应该还够他玩到2027年。但是呢，这是当前的速度，以OpenAI这个折腾劲儿，他花钱的速度长得要比他挣钱的速度快。所以呢，他手里这个现金到底能玩到什么时候，其实不好说的。他这个175亿，是6月30号报告的现金储备，现在应该已经没剩这么多了。所以软银10月25号赶快先给他紧急打一点进来，他后边这个对赌条件没完成的，先打一点进来。所以现在到底手里还剩多少现金不好说。</p>



<p>不管怎么说，就是你手里的现金也好，你的收入也好，你的亏损也好，就所有这些数字，你跟1.4万亿比起来，它是不成比例的。如果你说我在2030年，或者在一个什么样的时间点上，我能够把这个1.4万亿前面承诺的这些协议都给它实现，都给它完成了，那你的增长率怎么着得百分之四五十，或者更高一些才有可能。或者说我可能要增长率到三位数，才有可能能够实现这些交易。但是目前来看呢，还是稍微的有一点点小难度的。所以资产也好，估值也好，应收应付也好，或者是我招了人以后给人许愿股票、给人发期权也好，这个都是假的。什么玩意是真的？现金是真的。OpenAI自己计算着，到2027年这个现金就有点捉襟见肘了，所以要去上市。上市会有带来什么东西？就是又有一笔现金进来。现金进来以后，他又可以去玩耍一段时间。</p>



<h3 class="wp-block-heading">4万亿美金的上市野望</h3>



<p>那你说OpenAI上市大概值多少钱呢？现在都5,000亿了，到2027年上市会值多少钱？这个没有公开的说法。但是呢，最近山姆奥特曼跟微软的CEO参加了一个访谈，在这个访谈上呢，山姆奥特曼其实漏了一个口风，他说：“我希望微软投给我这100多亿美金，最后能够挣到1万亿美金。”那你想想，微软占27%，如果这27%值1万亿美金的话，那OpenAI至少应该值4万亿美金。不对，你会算数吗老范？他应该不到4万亿，应该乘三点几。后边人家还融资呢，每一次融资，微软占股的比例会被稀释了。所以等到它上市的时候，微软应该没有27%的股份。如果微软在OpenAI上市的时候能够挣回1万亿美金的话，那OpenAI大概妥妥的是4万亿美金以上的位置。现在4万亿美金以上的公司，就是英伟达5万亿，苹果大概有时候能到4万亿，其他都没了。所以等到2027年的时候，OpenAI都4万亿美金上市去了，美股七姐妹到那个时候得是一个什么样的体量，大家可以这个大胆的想象一下。</p>



<p>对于任何一个股市来说，有一家4万亿美金的公司跑到我这来IPO，都会难产的，你这个流动性一下就会被吸干净的。记得2014年猎豹移动去纽交所上市的时候，我们就很害怕，因为我们知道那一年阿里要在那上市，阿里大概是2,000亿还是几千亿美金要在纽交所上市。后来我们说不行，一定要在他前头上。因为一旦阿里上市了以后，他会给整个的纽交所带来巨大的流动性的问题。并不是说纽交所拿不出这个钱来，而是什么呢？就是愿意往中概股里投的钱其实没有那么多，我们都站在一个池子里头，这都算是中概股，所以一定要在那之前上去。你想4万亿，这个是一个什么概念？我相信它到4万亿上市的时候，应该也是在现在美股七姐妹里头站的很高的一个位置。反正有点想象不清楚了，这个数有点太大了。</p>



<p>OpenAI的1.4万亿消费订单，现在已经开始在一些公司财报中显现了，最后到底怎么兑现还不好说。如果无法兑现的话，这个泡沫就会破。所以这就是咱们的标题：OpenAI上市之日，可能就是AI泡沫破灭之时。</p>



<h2 class="wp-block-heading">比尔盖茨的观点：互联网式的泡沫</h2>



<p>那你说这个都泡沫了，未来还行吗？比尔盖茨最近说了一个话，说泡沫分两种，第一种是荷兰郁金香那种，第二种是互联网这种。差异在哪呢？荷兰郁金香最后是一地鸡毛，啥也没剩下。而互联网泡沫破了以后，虽然有很多公司倒闭了，但是伟大的公司从废墟中站起来了，这就是差异。他认为AI现在是有泡沫存在的，但它是一个互联网那样的泡沫，可能很多公司都会死，都会亏损，会有大量的裁员，很多人会过得很难受，但是会有伟大的公司从废墟中站起来的。我也比较认可这种看法吧，所以崩盘的过程中会有人倒下，但是伟大的公司，比如像OpenAI这类公司就会站起来。微软作为OpenAI最大的股东，肯定也是里子和面子都可以挣得回来。所以比尔盖茨现在出来说这个话是没有任何问题的。</p>



<h2 class="wp-block-heading">总结</h2>



<p>最后咱们总结一下，OpenAI终于完成了组织架构的调整，不再是非营利组织了，可以名正言顺的挣钱去上市去了。在AI这个领域里头，到底有没有泡沫这个事呢，其实不需要讨论，而且泡沫最后一定会破。最后到底是谁被泡沫埋葬，谁会浴火重生，才是真正大家需要关注的重点。</p>



<p>好，这就是咱们今天要讲的故事，感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sora接口短暂泄露，艺术家们揭示Open AI的剥削内幕，是公关噱头还是真心合作？</title>
		<link>https://lukefan.com/2024/11/29/sora%e6%8e%a5%e5%8f%a3%e7%9f%ad%e6%9a%82%e6%b3%84%e9%9c%b2%ef%bc%8c%e8%89%ba%e6%9c%af%e5%ae%b6%e4%bb%ac%e6%8f%ad%e7%a4%baopen-ai%e7%9a%84%e5%89%a5%e5%89%8a%e5%86%85%e5%b9%95%ef%bc%8c%e6%98%af%e5%85%ac/</link>
		
		<dc:creator><![CDATA[老范 讲故事]]></dc:creator>
		<pubDate>Fri, 29 Nov 2024 00:42:07 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI工具]]></category>
		<category><![CDATA[AI应用]]></category>
		<category><![CDATA[DALL-E 3]]></category>
		<category><![CDATA[Hugging Face]]></category>
		<category><![CDATA[Open AI]]></category>
		<category><![CDATA[SEO优化]]></category>
		<category><![CDATA[Sora大模型]]></category>
		<category><![CDATA[Turbo版本]]></category>
		<category><![CDATA[业内动态]]></category>
		<category><![CDATA[互动媒体]]></category>
		<category><![CDATA[产品发布]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[企业创新]]></category>
		<category><![CDATA[企业合作]]></category>
		<category><![CDATA[保密协议]]></category>
		<category><![CDATA[公关策略]]></category>
		<category><![CDATA[内容优化]]></category>
		<category><![CDATA[内容匹配]]></category>
		<category><![CDATA[内容变现]]></category>
		<category><![CDATA[内容审核]]></category>
		<category><![CDATA[内容生成]]></category>
		<category><![CDATA[内容策略]]></category>
		<category><![CDATA[内容质量]]></category>
		<category><![CDATA[创意合作伙伴]]></category>
		<category><![CDATA[创意平台]]></category>
		<category><![CDATA[动态内容]]></category>
		<category><![CDATA[可控性]]></category>
		<category><![CDATA[品牌保护]]></category>
		<category><![CDATA[图像生成]]></category>
		<category><![CDATA[在线工具]]></category>
		<category><![CDATA[在线编辑工具]]></category>
		<category><![CDATA[媒体传播]]></category>
		<category><![CDATA[媒体内容]]></category>
		<category><![CDATA[媒体整合]]></category>
		<category><![CDATA[媒体营销]]></category>
		<category><![CDATA[实时生成]]></category>
		<category><![CDATA[宣传策略]]></category>
		<category><![CDATA[市场趋势]]></category>
		<category><![CDATA[平台发展]]></category>
		<category><![CDATA[平台生态]]></category>
		<category><![CDATA[开发者社区]]></category>
		<category><![CDATA[开源合作]]></category>
		<category><![CDATA[影视行业]]></category>
		<category><![CDATA[技术产业]]></category>
		<category><![CDATA[技术创新]]></category>
		<category><![CDATA[技术对比]]></category>
		<category><![CDATA[技术开发]]></category>
		<category><![CDATA[技术挑战]]></category>
		<category><![CDATA[技术突破]]></category>
		<category><![CDATA[挑战与机遇]]></category>
		<category><![CDATA[效果展示]]></category>
		<category><![CDATA[数字人]]></category>
		<category><![CDATA[数字媒体]]></category>
		<category><![CDATA[数据处理]]></category>
		<category><![CDATA[数据安全]]></category>
		<category><![CDATA[未来科技]]></category>
		<category><![CDATA[模型参数]]></category>
		<category><![CDATA[模型训练]]></category>
		<category><![CDATA[法律风险]]></category>
		<category><![CDATA[深度学习]]></category>
		<category><![CDATA[版权纠纷]]></category>
		<category><![CDATA[生成模型]]></category>
		<category><![CDATA[用户交互]]></category>
		<category><![CDATA[用户体验]]></category>
		<category><![CDATA[知识产权]]></category>
		<category><![CDATA[社交媒体策略]]></category>
		<category><![CDATA[社交影响]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[线上互动]]></category>
		<category><![CDATA[自动化处理]]></category>
		<category><![CDATA[艺术家]]></category>
		<category><![CDATA[艺术表现力]]></category>
		<category><![CDATA[行业先锋]]></category>
		<category><![CDATA[覆盖范围]]></category>
		<category><![CDATA[视觉创意]]></category>
		<category><![CDATA[视觉效果]]></category>
		<category><![CDATA[视频内容]]></category>
		<category><![CDATA[视频安全性]]></category>
		<category><![CDATA[视频模型]]></category>
		<category><![CDATA[视频流]]></category>
		<category><![CDATA[视频特效]]></category>
		<category><![CDATA[视频生成]]></category>
		<category><![CDATA[视频生成技术]]></category>
		<category><![CDATA[视频生成潜力]]></category>
		<category><![CDATA[视频编辑]]></category>
		<category><![CDATA[视频风格]]></category>
		<category><![CDATA[计算机视觉]]></category>
		<category><![CDATA[语音合成]]></category>
		<category><![CDATA[跨平台使用]]></category>
		<category><![CDATA[跨文化传播]]></category>
		<category><![CDATA[身份验证]]></category>
		<category><![CDATA[高成本]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1733</guid>

					<description><![CDATA[大家好！🎉今天我们聊聊Sora的短暂泄露事件！！！

也许你已经听说过，Open AI的Sora大模型从今年年初就引起了大家的关注！可是啊……等到现在，时间慢慢来到了年底，发布却依旧遥遥无期！这可真是让人感觉到无奈啊！！！

就在这样的时刻，一群充满激情的艺术家们决定将Sora的接口丢到Hugging Face上，进行短暂的开放！😱他们还很大胆地发表了一封公开信，表达了自己对Open AI剥削的不满！这可不是小事哦！等Open AI察觉到后，立刻就封闭了接口，真的是快！只用了一小时！⌛️

可是，等了这么久，大家更想知道的还是Sora到底什么时候启动！而这次泄露的信息出来的其实是名为“Turbo”的版本，不过这只是一个轻量级、快速的模型，并不能够展现出Sora真正的全部实力！我真的忍不住想说，艺术家们靠谱吗？为什么会有这么多的挑战在等着他们？🤔

《Sora泄露》背后的故事真的引人入胜！艺术家们表达的不仅仅是对技术的渴望，更多的是对创作自由的追求！🎨“富贵不归乡，如锦衣夜行”，这句话深刻地反映了他们渴望分享的心情！不让他们显摆的模样，简直就是把他们绑住了手脚啊！😩

那些加入Sora的艺术家们经历了什么？他们被分为三种角色，还有人被称为“红队成员”，这听起来就充满了挑战与戏剧性！想知道更多按住这个“电源”你可得耐心等一下，这可不是简单的公开信能解答的问题！🔍

所以，未来的Sora究竟何去何从？是否意味着艺术家们的呼声会得到更好的回应呢？✨各位小伙伴们，快来一起讨论吧！让我们一起关注这个备受争议的模型！🗣️

别忘了点赞、分享我的频道，我们下次见！😘

Sora接口短暂泄露，艺术家们揭示Open AI的剥削内幕，是公关噱头还是真心合作？

在今年2月，Open AI推出了备受期待的Sora大模型，它曾被视作视频生成领域的前景。然而，至今尚无正式发布。近期，一群艺术家在Hugging Face短暂开放了Sora的Turbo版本，并发表公开信指责Open AI对艺术家们的剥削，使得Sora再次成为公众焦点。尽管其生成的视频质量和表现力不如预期，艺术家们在其开发过程中的辛苦和对创意的高标准受到阻碍。当前已经有Runway、吉梦等多款视频生成工具可供使用，市场上充满了潜力。此次泄露事件到底是公关策略还是艺术家的反叛呢？值得深思。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Sora接口短暂泄露，艺术家们揭示Open AI的剥削内幕，是公关噱头还是真心合作？" width="900" height="506" src="https://www.youtube.com/embed/9YVENpwuJEc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了。很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了，Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧；然后也出来做了一些解释，表示这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫。大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于超长镜头，电影里头用这种镜头其实也不是那么多。这一次呢，只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟。其实跟我们现在可以使用到的大量的这种视频生成模型参数是一样的，现在的视频生成模型基本上都是5到10秒钟。</p>



<span id="more-1733"></span>



<p>那么，艺术家们为什么干这么个事呢？原因呢也很简单。有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了。艺术家们加入呢，是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工。你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的。视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假或者版权侵害什么这样的视频。所以呢，需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴。Sora每过一段时间呢，会发出一些样板视频来，那意思什么？他说，你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频，它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。所以呢，他说，我们付出了很多，但是发表的作品呢又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们呢，应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线。大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说，这个时间长了以后一定会造反的。</p>



<p>艺术家们呢就觉得他们成为了OpenAI的公关噱头。就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布，还遥遥无期。仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。艺术家们在一个网站上开始征集签名，说来，你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，就2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪。图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢，在做一些动作的时候，里边的肢体就会从衣服外边撑出来。在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误。比如说，这个脚要往前走的时候，应该膝盖往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上也会出现这种问题，视频生成模型更加难以避免。这个是第一个问题。</p>



<p>第二个问题就是一致性可控性。这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说，你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。</p>



<p>脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。</p>



<p>再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。当然了，这个还不是困扰视频生成本身的最大难题。</p>



<p>更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式对话吗，上传图片吗，然后一大堆菜单和选项吗，应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件。这个时候就发现，这个实在太难了，因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，是否有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止，没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说，我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了，你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以这个到底掌握到什么步骤，他们也是很头疼的。再往后什么欺诈，视频的欺诈，那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全的可以以假乱真。</p>



<p>我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。</p>



<p>现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解的很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。但是，这个但是后边才是重点，艺术表现力非常的差。</p>



<p>甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦。吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人人吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的一个视频。我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了。所以这块呢已经走入了商业化。以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个，专业应用级别呢，可能还是会有专门的人去做。就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的，但是呢，也还是有很多专业团队，会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了。这是一种方式。</p>



<p>半专业的应用呢，肯定还有待增强。普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP也在尝试跟各自的这种视频编辑工具进行结合。这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢，我们已经讲了Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，已经有很多用户开始使用了，而Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，参数也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。</p>



<p>这一次只提供了1080P、720P、360P三种的分辨率，时长就是5到10秒钟。其实跟我们现在可以使用到的很多这种视频生成模型参数是一样的。现在的视频生成模型基本上都是5到10秒钟。那么，艺术家们为什么干这么个事呢？原因也很简单，有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。</p>



<p>对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。公开信里都写了什么呢？他写了说，艺术家们年初就被邀请加入，艺术家们加入是分为三种不同的角色。第一个叫早期测试者，估计就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假，或者版权侵害什么这样的视频。</p>



<p>所以呢，需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。第三种叫创意合作伙伴，Sora每过一段时间会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。</p>



<p>现在，这些艺术家们感觉被骗了。为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的，我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品或者叫作品吧，这个事本身是非常难的。所以呢，他说，我们付出了很多，但是发表的作品又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们也应该没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期，这就相当于什么，就是一帮人进去打测试服的游戏去了，结果始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试。</p>



<p>然后，所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。艺术家们就觉得他们成为了OpenAI的公关噱头，每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢，是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。</p>



<p>现在，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期。仅仅依靠零星露出的作品保持社交媒体关注度，Open AI是可以接受的，但是艺术家们肯定接受不了。最后，艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。这些艺术家们在一个网站上开始征集签名，说来你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候就已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说，你穿了件衣服，里边有个人，但是呢，人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这两条腿迈着迈着它都变成左脚了，或者是变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题，第二个问题就是一致性可控性。这个其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。</p>



<p>现在在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后呢，算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，它需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，这个实在太难了，因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，是否有人见过飞机驾驶舱，从头到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。</p>



<p>这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。到目前为止，没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以，这个到底掌握到什么步骤，他们也是很头疼的。再往后什么欺诈，视频的欺诈，那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。</p>



<p>因为这个东西完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。</p>



<p>你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈、血腥暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这对于视频来说也很麻烦。</p>



<p>什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的。稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战、什么米老鼠，马上拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人人吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上有很多的这种预告片开始吸引流量。什么意思呢？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的一个视频我已经被这种视频骗了好多回了。</p>



<p>我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块已经走入了商业化。</p>



<p>那么，以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。下一步的AI工具会是什么样的呢？第一个专业应用级别，可能还是会有专门的人去做。</p>



<p>就像现在我们，比如说在视频领域里头，我的视频处理都是用剪映的，但是呢也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强。普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的，他们可能还需要在用户交互上或者是工具上还要有待增强。这个大模型本身，他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但是呢，这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP也在尝试跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢，都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了，Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，称这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型吧，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟。其实跟我们现在可以使用到的很多视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5到10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单。有一句话叫“富贵不归乡，如锦衣夜行”，什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴，Sora每过一段时间呢会发出一些样板视频来，那意思什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，我们只要写一个提示词，生成出来大差不差的，我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以，对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。所以呢，他们说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试。</p>



<p>然后，所有的测试还需要签保密协议，你还不能出来说，这个时间长了以后一定会造反的。艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。其实，这些呢是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢，是呼吁Open AI可以更加开放，你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。</p>



<p>最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。所以，他们就整了这么一个幺蛾子出来，你虽然跟我签了保密协议，但是我们就啪，把这个东西扔到世界上最大的开元大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。</p>



<p>当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢？现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。也许过一段时间，人家就突然就发布了，发现哎，这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。</p>



<p>这些艺术家们在一个网站上开始征集签名，说来你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。那么，视频生成为什么这么费劲呢？Open AI在年初的时候，就在2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。</p>



<p>但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯？这个挺难的。</p>



<p>我们看过很多视频模型生成的内容，两条腿突然走着走着就变三条了，或者是这两条腿迈着迈着就都变成左脚了，变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。</p>



<p>脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。</p>



<p>再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。当然了，这个还不是困扰视频生成本身的最大难题。</p>



<p>更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力，第一个层面就是模型，怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗，上传图片吗，然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，就是有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。</p>



<p>这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。到目前为止没有特别好使的，在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说我们付出的努力极其艰巨呢，也是如此。</p>



<p>他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。</p>



<p>咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，还不能矫枉过正。像谷歌前面就是矫枉过正了，你跟他说任何的提示词里边一定是有黄种人、有黑人、有白人、有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。</p>



<p>所以这个到底掌握到什么步骤，他们也是很头疼的。再往后，什么欺诈？视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢，你可以自己上传一张照片，说我现在让这个人去讲话。</p>



<p>你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈呀、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjourney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。</p>



<p>你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战，什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能。这些呢已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。</p>



<p>很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个说话了，这个吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢，有很多的这种预告片开始吸引流量。什么意思呢？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。</p>



<p>当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的视频我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画、小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。那么，以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把德国选择党的那个女党首的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的视频处理都是用剪映的。但是呢，也还是有很多专业团队会使用一些更复杂的这种视频工具，Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用，用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的，刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP，也在尝试跟各自的这种视频编辑工具进行结合。这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说这些艺术家们呢，都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的。当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，实际上跟我们现在可以使用到的大量的这种视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5到10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单，有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴。Sora每过一段时间呢会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。</p>



<p>它不像是我们普通人去使用图片生成模型，式的那我们只要写一个提示词，生成出来大差不差的，我就能用。那些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。</p>



<p>所以呢，他说哎，我们付出了很多，但是发表的作品呢又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。</p>



<p>这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢是呼吁Open AI可以更加开放，你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以他们就整了这么一个幺蛾子出来，你虽然跟我签了保密协议，但是我们就啪，把这个东西扔到世界上最大的开元大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现哎，这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。艺术家们在一个网站上开始征集签名，说来你们谁支持我，这里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题，咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候呢，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯，这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说，非常非常难以控制和把握。再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大难题。更大的难题是什么呢？就是视频要好看，最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力，第一个层面就是模型，怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，就是有没有人见过飞机驾驶舱，从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置，才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。像谷歌前面就是矫枉过正了，你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。</p>



<p>所以这个到底掌握到什么步骤，他们也是很头疼的。再往后什么欺诈？视频的欺诈，那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全的可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。</p>



<p>你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然有其他的工具可以干这件事情，现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈呀、血腥暴力歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解的很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。但是，这个但是后边才是重点，艺术表现力非常的差。</p>



<p>甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来。说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部，也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人人吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以。这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频在抖音在快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。那么，以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的。但是呢，也还是有很多专业团队会使用一些更复杂的这种视频工具，Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用，用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强。普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好、可灵也好，还是挺难使的。他们可能还需要在用户交互上或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上，在吉梦也好、可灵也好，都在做手机APP，网站的这种Web APP也在尝试，跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆，可灵也好、吉梦也好、Runway Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了，Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说明这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，实际上跟我们现在可以使用到的很多视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5-10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单，有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了。艺术家们加入呢，是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过。</p>



<p>这个叫红队成员。第三种呢叫创意合作伙伴，Sora每过一段时间呢会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。</p>



<p>它不像是我们普通人去使用图片生成模型那样。我们只要写一个提示词，生成出来大差不差的，我就能用。这些人是艺术家，之所以能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以，对于他们来说，想要让这种视频模型输出自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。</p>



<p>所以呢，他们说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。即使是有作品被发表展示了，这些艺术家们呢，应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。</p>



<p>这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。</p>



<p>艺术家们呢，就觉得他们成为了OpenAI的公关噱头。就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢，其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。再往后呢，是呼吁Open AI可以更加开放。</p>



<p>你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，表示现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就啪，把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现哎，这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。这些艺术家们在一个网站上开始征集签名，说来，你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢，并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯？这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这两条腿迈着迈着都变成左脚了，都变成右脚。在图像生成模型上也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这种方式是可以让这个脸稍微的稳定一点的。</p>



<p>脸是一方面，然后这个身材、身上的衣服、各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。</p>



<p>再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高的。当然了，这个还不是困扰视频生成本身的最大的难题，更大的难题是什么呢？就是视频要好看。</p>



<p>最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型，怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗，上传图片吗，然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，有没有人见过飞机驾驶舱，从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。</p>



<p>这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说都是极大的挑战。到目前为止没有特别好使的，在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说，我们付出的努力极其艰巨呢？也是如此，他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢，完全的可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。</p>



<p>你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然有其他的工具可以干这件事情，现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。数字人呢，也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的一个视频。我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的。但是呢，也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强，这个大模型本身，他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP，也在尝试跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么，虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事，感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说这些艺术家们呢，都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的。当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，其实跟我们现在可以使用到的大量的这种视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5到10秒钟。那么艺术家们为什么干这么个事呢？原因呢也很简单，有一句话叫“富贵不归乡，如锦衣夜行。”什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害这样的视频，所以呢需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴。Sora每过一段时间呢会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的，我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。于是他们说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说，这个时间长了以后一定会造反的。</p>



<p>艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。再往后呢是呼吁Open AI可以更加开放，你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。</p>



<p>现在呢Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。所以他们就整了这么一个幺蛾子出来，你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。</p>



<p>当然现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。</p>



<p>这些艺术家们在一个网站上开始征集签名，谁支持我，这里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。那么视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。</p>



<p>第一个呢就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪。图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候呢，里边的肢体就会从衣服外边撑出来。</p>



<p>你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误。比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。</p>



<p>这是第一个问题。第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上。现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后呢就是算力成本实在太高了。图片生成现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大的难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢做视频生成，其实是在两个层面上大家在努力。第一个层面就是模型，怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式对话吗，上传图片吗，然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件。这个时候就发现，哎呀，这个实在太难了，因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。这大家想象一下，就是有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。</p>



<p>视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说：“我们付出的努力极其艰巨呢？”也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大得多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。像谷歌前面就是矫枉过正了，你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人、有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。 所以这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。 当然有其他的工具可以干这件事情，现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈呀、血腥暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。那么我们到底还需不需要等Sora呢？</p>



<p>其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去。这个Dalle3算是最强的。但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战、什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是runway还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。</p>



<p>数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的视频我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的，但是呢也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用。但是呢，这个可能距离我们还稍微远一些。这种半专业应用的话，应该正在路上，在吉梦也好可灵也好呢，都在做手机APP，网站的这种Web APP也在尝试跟各自的这种视频编辑工具进行结合，这一块的话有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型。在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索，寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。</p>



<p>所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。好，这是今天讲的故事，感谢大家收听，请帮忙点赞点小铃铛，参加discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>其实，从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去。这个Dalle3算是最强的。但是，这个“但是”后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是画的过程还是比较粗糙的。稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来。说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战，什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是runway还是国内能够使用的吉梦。吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能。这些呢，已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人说话了，这个人吃东西了，这个已经有一定的传播力了。</p>



<p>数字人呢，也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个你也不能说他粗制滥造，有的做的还可以。这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。至于Open AI下边该干嘛去呢，我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>所以，我们期待Open AI可以给大家指明下一个方向。等指明了以后，全球的厂商再顺着这个方向往前跑。好，这是今天讲的故事，感谢大家收听，请帮忙点赞、点小铃铛，参加discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂地泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂地开放了一段时间。这些艺术家还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，称这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫。大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，不是一个全尺寸的模型，参数也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于超长镜头了，电影里头用这种镜头其实也不是那么多。这一次只提供了1080P、720P、360P三种的分辨率，时长就是5到10秒钟。其实跟我们现在可以使用到的大量这种视频生成模型参数是一样的，现在的视频生成模型基本上都是5到10秒钟。</p>



<p>那么，艺术家们为什么干这么个事呢？原因很简单。有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初就被邀请加入了。艺术家们加入是分为三种不同的角色。第一个叫早期测试者，估计就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假，或者版权侵害什么这样的视频。所以需要一些成员不断地向他提这样的要求，看看能不能都识别出来，拒绝服务或者怎么能够规避，怎么能绕过，这个叫红队成员。第三种叫创意合作伙伴，Sora每过一段时间会发出一些样板视频来，意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。</p>



<p>现在，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，我们只要写一个提示词，生成出来大差不差的我就能用。</p>



<p>这些人是艺术家，之所以能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出自己能够满意的产品，或者叫作品，这个事本身是非常难的。他们说，我们付出了很多，但是发表的作品又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们应该也没有得到什么回报。对应一个1500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这就相当于什么？就是一帮人进去打测试服的游戏去了，结果始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。</p>



<p>艺术家们就觉得他们成为了OpenAI的公关噱头。就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。</p>



<p>现在，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI是可以接受的，但艺术家们肯定接受不了。最后，艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停地玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。这些艺术家们在一个网站上开始征集签名，说来，你们谁支持我，这里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是，视频生成本身的难度是很大的。第一个，内容合理性其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边有个人，但是人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，膝盖应该往后弯的。但是，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的内容，两条腿突然走着走着就变三条了，或者是两条腿迈着迈着都变成左脚了，变成右脚。图像生成模型上也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。第二个问题就是一致性可控性，这个其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。</p>



<p>现在在图片生成模型的一致性上，已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材、身上的衣服、各种配饰，你要让所有的这些图片都很稳定地保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后，算力成本实在太高了。图片生成，现在我们画一幅1080P的图像，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这还不是困扰视频生成本身的最大难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。</p>



<p>现在做视频生成，其实是在两个层面上大家在努力。第一个层面就是模型，怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。</p>



<p>当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。大家想象一下，有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。</p>



<p>现在我们要做视频生成的这种工具了，在有大模型的基础上，你也需要大量的开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止，没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以，为什么这帮艺术家也说我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大得多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人、有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以，这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后，什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是你可以自己上传一张照片，说我现在让这个人去讲话。</p>



<p>你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话它就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个“但是”后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝；你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝；你只要提到任何人的名字，直接拒绝；说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝；请给我画个什么星球大战、米老鼠，马上拒绝。</p>



<p>所以，他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。数字人也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以。这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了，所以这块已经走入了商业化。那么，以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别，可能还是会有专门的人去做。就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的。但是，也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的，刚才我们说的吉梦也好、可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强。这个大模型本身，他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用。但是，这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好、可灵也好，都是在做手机APP，网站的这种Web APP也在尝试，跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢，我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway、Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索，寻找新方向，但是都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以，我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事，感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说明这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫。大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，实际上跟我们现在可以使用到的大量的这种视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5-10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单。有一句话叫“富贵不归乡，如锦衣夜行。”什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。第三种呢叫创意合作伙伴，Sora每过一段时间呢会发出一些样板视频来，意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。</p>



<p>现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的，我就能用。这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。</p>



<p>所以，对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。所以呢，他说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1500亿美金的Open AI来说，大家觉得这个事有点太不公平了。</p>



<p>而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期，这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说：“你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。”这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢？现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。</p>



<p>这些艺术家们在一个网站上开始征集签名，说来你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯？这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后呢就是算力成本实在太高了。图片生成现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大的难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。</p>



<p>现在呢，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件。这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情，都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，就是有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说都是极大的挑战。</p>



<p>到目前为止没有特别好使的，在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说：“我们付出的努力极其艰巨呢？”也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人，有黑人，有白人，有男的，有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。</p>



<p>当然有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈呀，血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西。这呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看DALL·E 3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个DALL·E 3算是最强的。但是，这个“但是”后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjourney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战、什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是Runway还是国内能够使用的吉梦。吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能。这些呢已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。</p>



<p>数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以。</p>



<p>这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。</p>



<p>那么，以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的，但是呢也还是有很多专业团队会使用一些更复杂的这种视频工具。</p>



<p>Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用，用完了以后出了所有东西，你们自己负责任，跟我就没有关系了。这是一种方式。半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。</p>



<p>至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用。但是呢，这个可能距离我们还稍微远一些。这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP也在尝试，跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢，我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway、Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索，寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。</p>



<p>所以，我们期待Open AI可以给大家指明下一个方向。等指明了以后，全世界的厂商再顺着这个方向往前跑。好，这是今天讲的故事。感谢大家收听，请帮忙点赞、点小铃铛，参加Discord讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>字节跳动在马来西亚大裁员背后的深层次原因解析：AI与全球内容审核策略</title>
		<link>https://lukefan.com/2024/10/15/%e5%ad%97%e8%8a%82%e8%b7%b3%e5%8a%a8%e5%9c%a8%e9%a9%ac%e6%9d%a5%e8%a5%bf%e4%ba%9a%e5%a4%a7%e8%a3%81%e5%91%98%e8%83%8c%e5%90%8e%e7%9a%84%e6%b7%b1%e5%b1%82%e6%ac%a1%e5%8e%9f%e5%9b%a0%e8%a7%a3%e6%9e%90/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 15 Oct 2024 01:42:41 +0000</pubDate>
				<category><![CDATA[字节跳动，故事多]]></category>
		<category><![CDATA[20亿美金投入]]></category>
		<category><![CDATA[AI发展]]></category>
		<category><![CDATA[AI审核]]></category>
		<category><![CDATA[AI模型]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[上市准备]]></category>
		<category><![CDATA[业务扩张]]></category>
		<category><![CDATA[中美关系]]></category>
		<category><![CDATA[互联网发展]]></category>
		<category><![CDATA[产品控制]]></category>
		<category><![CDATA[产品整合]]></category>
		<category><![CDATA[人事调整]]></category>
		<category><![CDATA[人力成本]]></category>
		<category><![CDATA[人工效率]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[企业估值]]></category>
		<category><![CDATA[企业内控]]></category>
		<category><![CDATA[企业战略]]></category>
		<category><![CDATA[企业文化]]></category>
		<category><![CDATA[企业架构]]></category>
		<category><![CDATA[信息安全]]></category>
		<category><![CDATA[信息流通]]></category>
		<category><![CDATA[全球动向]]></category>
		<category><![CDATA[全球市场]]></category>
		<category><![CDATA[全球布局]]></category>
		<category><![CDATA[全球视野]]></category>
		<category><![CDATA[公司策略]]></category>
		<category><![CDATA[内容合规]]></category>
		<category><![CDATA[内容审核]]></category>
		<category><![CDATA[内容过滤]]></category>
		<category><![CDATA[合作伙伴]]></category>
		<category><![CDATA[合规管理]]></category>
		<category><![CDATA[员工调整]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[国内团队]]></category>
		<category><![CDATA[国际业务]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[宏观经济]]></category>
		<category><![CDATA[审核团队]]></category>
		<category><![CDATA[就地审核]]></category>
		<category><![CDATA[工程方式]]></category>
		<category><![CDATA[市场份额]]></category>
		<category><![CDATA[市场动态]]></category>
		<category><![CDATA[市场竞争]]></category>
		<category><![CDATA[平台监管]]></category>
		<category><![CDATA[应用场景]]></category>
		<category><![CDATA[快速传播]]></category>
		<category><![CDATA[成本控制]]></category>
		<category><![CDATA[技术创新]]></category>
		<category><![CDATA[技术升级]]></category>
		<category><![CDATA[技术壁垒]]></category>
		<category><![CDATA[技术革新]]></category>
		<category><![CDATA[投诉机制]]></category>
		<category><![CDATA[抖音]]></category>
		<category><![CDATA[数字化转型]]></category>
		<category><![CDATA[数据保护]]></category>
		<category><![CDATA[数据处理]]></category>
		<category><![CDATA[数据隐私]]></category>
		<category><![CDATA[新加坡总部]]></category>
		<category><![CDATA[时间协同]]></category>
		<category><![CDATA[模型应用]]></category>
		<category><![CDATA[法律法规]]></category>
		<category><![CDATA[法规合理化]]></category>
		<category><![CDATA[法规要求]]></category>
		<category><![CDATA[用户体验]]></category>
		<category><![CDATA[知识产权]]></category>
		<category><![CDATA[破解法律]]></category>
		<category><![CDATA[社交媒体]]></category>
		<category><![CDATA[社会责任]]></category>
		<category><![CDATA[福利国家]]></category>
		<category><![CDATA[科技博主]]></category>
		<category><![CDATA[程序开发]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[管理总部]]></category>
		<category><![CDATA[纽约时区]]></category>
		<category><![CDATA[聘用政策]]></category>
		<category><![CDATA[英语审核]]></category>
		<category><![CDATA[行业标准]]></category>
		<category><![CDATA[行业趋势]]></category>
		<category><![CDATA[视频标签]]></category>
		<category><![CDATA[资源调配]]></category>
		<category><![CDATA[资源配置]]></category>
		<category><![CDATA[运营模式]]></category>
		<category><![CDATA[雇佣政策]]></category>
		<category><![CDATA[风险管理]]></category>
		<category><![CDATA[马来西亚]]></category>
		<category><![CDATA[马来西亚裁员]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1631</guid>

					<description><![CDATA[字节跳动在马来西亚裁撤700名员工，主要涉及内容审核岗位，标志着公司将更多依赖AI技术进行审核。字节跳动表示将投入20亿美元用于全球内容审核，确保内容质量和安全。裁员的背后有多个原因，包括成本控制、AI技术的成熟以及全球运营策略调整。马来西亚的审核团队主要负责全球TikTok用户内容的审核，尤其是英语内容。字节跳动在全球范围内进行审核团队的重新分配，可能将部分工作转移到成本更低的地区如菲律宾。本文详细分析了字节跳动此举背后的深层次原因及其对未来的影响。

大家好！今天我们要聊一个热辣的话题——字节跳动在马来西亚裁员700名员工的事件！🤯

啊啊啊，听说了吗？字节跳动决定聚焦AI审核，裁撤了大量内容审核员！为什么？因为他们要用AI来接管许多审核工作，这个转变真的振奋人心啊！！

首先，裁员的700人究竟是如何影响内容审核的？字节跳动表示，他们希望将审核工作从首都搬回到新加坡，而AI审查将成为重中之重！✨ AI的崛起意味着效率将大幅提升，但人力的流失也让人心痛不已...

想想看，马来西亚的700名员工不是只审核本地的内容！他们处理的是来自全球的TikTok内容！🥳 想知道后面如何？可能涉及到跨国法律和审查标准哦！

再谈谈马来西亚的优势！🌏 这里的人力成本适中，英语水平相对较高，地理位置也极佳。但面对全球市场变化，字节跳动为何选择重塑自己的团队结构，值得我们深思...

还有一个更劲爆的事情！字节跳动在AI领域的重金投入可能掀起一场技术革命，未来的审核或许只需少量人工配合AI，就能完成审核任务！🧠💻可想而知，这将对整个内容审核行业产生巨大的影响...

所以说，字节跳动的裁员其实是为了更大的布局！💪🏻 如何在成本控制中兼顾监管合规，才能保证内容的市场竞争力？未来的趋势我们拭目以待！

记得点赞、留言告诉我你对字节跳动裁员的看法哦！期待与你们的交流！💬🚀]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="字节跳动在马来西亚大裁员背后的深层次原因解析：AI与全球内容审核策略" width="900" height="506" src="https://www.youtube.com/embed/eD5FI1Y_f8k?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>字节跳动在马来西亚开启了大裁员。这是什么样的情况？大家好，这里是老范讲故事的YouTube频道。近期传出消息，字节跳动在马来西亚裁撤了700名员工，而这些员工主要从事的是内容审核相关的工作。</p>



<p>现在字节跳动也出面回应，表示：“我们确实进行了裁员，而且我们要去改变内容审核的方式，更多地依赖AI进行审核，而不是人工进行审核。”当然，字节跳动肯定还要出来立一个牌子，表示我们准备一年投入20亿美金。这一定是一个很巨大的数字，让大家看到诚意。那么，我们要投入20亿美金干嘛呢？在全球范围内进行内容审核，确保我们的内容质量以及一些安全的内容被传播。</p>



<p>那么，这个裁员背后到底有什么含义呢？首先，大家要想一个问题：马来西亚有700名内容审核员工，这些人审核的内容都是来自于马来西亚吗？这肯定是不可能的。马来西亚一共几千万人，他需要700个人坐在这里做内容审核吗？这个不会的。那么，马来西亚的700名内容审核人员审核的内容是哪来的呢？其实是来自于全球的TikTok用户，至少是英语用户，应该都是在这里进行审核的。</p>



<span id="more-1631"></span>



<p>你说不应该美国的内容在美国审核吗？欧盟的内容在欧盟审核？大家要注意，内容这个东西其实有两个所在地，一个是哪里产生的，一个是哪里播放的。那么，应该是哪里产生的内容，在哪里审核。而且，不管是欧盟也好，还是美国也好，也都是有相应的法律或者法规，有类似这种要求和规定的。</p>



<p>但是，如果真的在欧盟或者美国设置这种审查机构的话，第一个，审核标准可能就会被泄露。因为很多的审核标准对于欧盟和美国来说，你是可以做，但不可以说你使用这样的一个标准。万一他的员工出去说了，字节跳动内部要求我们这么去审核内容，这个事肯定受不了。第二个，这些人离整个的管理总部非常遥远。字节跳动的管理总部是在哪里？至少TikTok对外宣称，他们的管理总部是在新加坡的。你说如果在美国设置了一个内容审核的分支机构……</p>



<p>有大量内容审核人员在那里工作的话，那你管理起来是很麻烦的啊。你有点什么事说来，上我这边来一趟。如果你在马来西亚的话，可能如果在新山，过一个关口就到了。如果你要是在美国的话，那得飞十几个小时才能飞过来，还有时差的问题。你在马来西亚上班跟在新加坡、北京，其实是在同一个时区里，大家就可以说几点开个会，什么都不会有问题。你要在美国或者在欧洲上班的话，那就要去协调时差，应该如何去处理。因为一旦有这种时差的话，很多事情就以天为计了。今天大家交会的这个时间赶不上了，那么我们只能在明天大家都方便的时间再去开会。这对于像字节跳动这样非常高效率运作的公司来说，是比较难以接受的。</p>



<p>而且马来西亚还有几个好处。第一个是什么呢？就是他的人力成本其实是比较适中的。虽然马来西亚这个国家并不穷，但是他们主要的财富是来自于石油。普通人的薪资并不是很高，肯定要比印尼、菲律宾、泰国这些地方要高，但是相对于欧美日韩，或者是国内的北上广深来说，还是比较有性价比的。你就更不要跟新加坡比了。在这样的一个薪资情况下，马来西亚人的英语水平还是不错的，因为英语也是他们的官方语言，从小受教育都是要去学习英语的，对吧？那么有一批人，距离新加坡管理总部很近，随时可以过个口岸就到那边开会，或者那边有个人坐公交车、坐地铁就可以过来开会了，还没有时差，直接进行沟通。工资不高，还讲英语，那么在这种地方就非常适合设立审核机构。</p>



<p>因为大家知道，像TikTok也好，国内抖音也好，都是要依靠巨大量的人工审核来去满足各国政府对于内容的需求的。刚才我们讲了，谁可以放什么内容上来，是有一个地方会审核，然后哪一个国家可以放哪些内容出来，是另外一个的审核。但是一般播出的审核并不是需要那么多人力，他们是说在你上传视频的时候，对视频打了标签，说明这个视频应该是什么样的视频。</p>



<p>在讲一个什么样的事情时，在播出的时候，他只需要过滤说：“我这个国家允许哪一个事情讲到什么样的级别，允许哪一个样的事情讲，还是不允许讲。”他只需要设置这个过滤条件就行。因为TikTok在马来西亚产生的内容、在美国产生的内容、在欧洲产生的内容，其实都是可以进行流动的。他是可以说在美国看到欧盟产生的内容，这是没有问题的。但是，假如美国做了一些内容出来以后，到了欧盟那边，可能相应当地的一些法律说这个内容是不许放，那个内容是不许放，他就可以进行这样的过滤。</p>



<p>但是，内容本身的标签呢，都是在内容产生的时候就给你做好的。下一个问题是什么呢？就是各个国家都希望：“我们自己产生的内容，你不要拿走审核， 你就在我这审核。”他们也是为了进行用户的隐私保护。在这样的一个要求前提下，字节跳动说现在AI的能力已经变强了，我们准备重新分散。我们把马来西亚的这些审核人员干掉一部分，或者是很大的一部分。应该我相信这700人并没有把整个马来西亚的审核团队都干干净。</p>



<p>字节跳动的这种审核团队，那个经常是以几千人、几万人计的，至少是在国内抖音上面的这个审核团队是非常庞大的。因为你想，你要审核视频，人的审核效率并没有那么高，真的是需要看很多视频。我记得以前我们在盛大的时候，下边有个公司叫酷6，他们那个时候的审核就跟看监控似的，一个人面前大概是9个窗口还是12个窗口， 一直在播放，然后你在下头看着那个，我觉得真的是要把人看傻的一个状态。</p>



<p>马来西亚这个裁撤了以后，应该是有一部分的工作可以转到AI了。这一部分的工作可能就可以到当地，比如说到美国、到欧盟，你用比较少的人，比如马来西亚才撤700人，到欧盟你说：“我这增加了个二三十人，配合AI也可以基本完成审核。”这个可能性是存在的。那么AI怎么审核这些内容呢？AI审核的第一步其实是把你内容相关的所有文字都拎出来。你在里边加了字幕了，有语言了。</p>



<p>然后写了这个标题，写了标签。他先把这些东西都拎出来审一遍，审完了以后呢，再去审里边的这些视频内容，真正的这种图像。因为这个审核算力的成本还是比较高的。你说我这个图像里头有没有一些色情内容，或者有一些歧视性内容，或者举了一些这种歧视性的手势，这个你要想把它认出来的话，成本非常高。</p>



<p>像这种AI审核呢，其实更多的是什么？更多的是说，先看看你这个内容有没有人看。如果没有人看呢，我们就少分配一些算力，少分配一些人去看这个东西。一旦说你这个内容看的人很多，流传的非常广泛，他就会分配更多的算力，甚至是人力，直接去检查这个内容是不是有效，或者是不是有问题。</p>



<p>怎么说呢，突然进行快速传播的内容里头，一定是有一些奇奇怪怪的东西的，一定会有一些擦边的内容。所以一旦发现有内容突然爆炸性传播了，快速的裂变了，其实这时候呢，不要再讲AI的事，上人力审核，可能绝大部分的情况都会判定内容本身有问题，直接把它干掉。这是一种。</p>



<p>还有一种是什么呢？就是它这个内容上线之前，其实除了对文字之外，其他的并没有进行严格的审核。一旦有人投诉了，或者投诉达到几个以后，他们再去进行机器过滤。如果机器过滤的过程中发生争议了，再去进行人工审核。这实际上是一个工程的方式，就是通过如何有效的去分配审核成本，保证有问题的内容不会大量传播。</p>



<p>他们不会说有问题的内容一个都不会出来，这没有人会要求这样的事情的。他们只是要求尽可能的把损失或者损害控制在可以接受的范围内，也就可以了。</p>



<p>那么在马来西亚裁员呢，可能还有一个大家想不到的原因。马来西亚有一个特别有意思的规定，就是你一旦要在马来西亚去做公司的话，你要尽可能的雇佣马来西亚本地人。他们的要求呢，就是如果你是制造业企业，你至少应该有80%的员工是拥有马来西亚国籍的人。为什么会有这种要求呢？就是马来西亚其实是个福利国家，就是他自己产石油嘛，你在那里生活，他的米面粮油啊。</p>



<p>特别是这种汽油什么的，是非常便宜的。他有补贴进去，这样的福利国家里头，肯定是希望把福利发给本国的公民。我不希望很多外国人上我这来蹭这个福利。他周围一个是印尼，一个是新加坡。新加坡人是不会跑到他那蹭福利去的，新加坡政府也不允许。</p>



<p>比如说，你想开个车上马来西亚去加油，这事是不行的。你离开新加坡的时候，那个车里头必须加满了油才允许离开。那么会有很多的印尼人到马来西亚去打工，包括有很多华人中国人跑到马来西亚去工作，还有很多印度人跑到马来西亚去工作。这对于马来西亚来说，并不是那么欢迎。他们希望尽可能雇佣马来西亚人。</p>



<p>像互联网公司，比如说字节跳动这样的公司，没有那么严格的要求，说你必须有80%是马来西亚籍员工。但是呢，马来西亚政府也希望你尽可能的去雇佣马来西亚人。这个事情跟刚才我们讲的700名马来西亚员工被裁撤，到底有什么关系呢？大家要知道，字节跳动肯定希望把更多的技术人员挪到新加坡去干活，去在那边完成TikTok的各种任务，而不是希望说这些人坐在北京给他们干活，因为这对于美国人来说就说不清楚了吧。</p>



<p>你看，TikTok的各种算法还是在北京办公室修改的，这个很痛苦。那么弄到新加坡呢，也有一个新的问题。新加坡本身在去做工作签证、永居什么的，其实没有那么容易。他的门槛很高，而且新加坡的生活成本也很高。很多在新加坡的这种IT企业，或者叫互联网企业，他们就会想办法把一部分的员工放在马来西亚，因为很近嘛，就是过一个关口就到了一个地方。</p>



<p>那么在这样的情况下，他们就需要一些配套的马来西亚人跟他去平衡。那怎么个配套法？假设不需要80%的马来西亚员工，这种互联网公司说，我们灵活一点吧，70%的马来西亚籍的员工就OK了，剩下30%你可以雇佣外籍员工。那么字节跳动在马来西亚可能就会有两三百名中国籍的员工，在那里进行一些算法运维或者编程开发方面的工作。咱们并不是说……</p>



<p>马来西亚自己人不会做这个事啊。因为我当时去马来西亚也跟他们聊过，他们跟我讲，在吉隆坡还是有一些互联网公司，有些软件公司。但是里面的一些软件开发岗，可能更多的还是从中国大陆来的人。</p>



<p>他们本地的这种培训、教育出来的软件人才，做得好的人就直接跑了，就是去新加坡了，或者去美国了。我以前有一个投资的案子，那就是一个马来西亚华人。他呢，计算机水平肯定是很高了，学好了以后呢，就直接去美国了，还在中国工作了一段时间，最终他是在印尼创业。</p>



<p>所以马来西亚并不是本地不产这些计算机人才，他们本地产的人才都跑了。在马来西亚本地，你需要比较高精尖的编程算法，这样的事情的人呢，你就只能再去找中国大陆的人去做。可能是有两三百名字节跳动的中国级员工，或者是其他国级的员工在马来西亚上班。这些人有可能离开了，也会导致说我不需要再在马来西亚配置这么多的本地员工跟他进行平衡了，这个可能性也很大。</p>



<p>那你说字节跳动在什么样的情况下会说我需要把中国级员工从马来西亚裁撤掉呢？这个我们只能猜测了。可能就是AI发生了一些变化，因为大家要知道，字节跳动在AI这个领域里头是进行重金的这种投入的，他在这里边投的非常非常大。字节跳动肯定希望在AI时代，能够发展成像梅塔、像谷歌这样的一种底层基础架构公司。</p>



<p>最近在全世界范围内，AI有一些新的风潮，就是OpenAI做了O1，做了其他的一些，好像依然在GPT-4O这个水平上晃来晃去的产品。这个其实会告诉大家什么呢？就是模型继续往前走，其实方向并不明确，会有这样一个指导方针出来。大家可能对于进行大模型本身质量提高这件事呢，热情就会下降，更多的会把精力放在说，我们要去做应用，我们要去解决实际问题这件事情上。</p>



<p>就是现在我们使用GPT-4O这样水平的模型，如果能够配合上很好的应用的话，可能就真的可以搞定很多的应用场景了，而不是说，我要想办法把GPT-4或者4O。</p>



<p>推到GPT-5这样的一个高度上去，这才是现在大家要去努力折腾的事情。可能字节跳动就会说：“我们不需要这么多员工，在马来西亚去占这个坑了，你们都回来，回到中国来，咱们好好去做APP吧。”这个可能就会发生变化。而且，现在也有一些指标在印证这件事情。什么指标呢？H100的租售价格，因为大家知道，买英伟达H100是很难的。但是很多人买完了以后会对外出租，租每个小时多少多少钱。现在这个出租价格在快速下跌。所以，大家其实现在对于大模型在向下一个阶段推进是有一些顾虑的，而且也缺乏方向。可能真的要等OpenAI做出GPT-5，来说：“哦，原来方向在这里。”然后大家再去疯狂的租用H100或者以后的D200这样的芯片，再去推新的模型出来。</p>



<p>字节跳动在这个时候进行这样的调整，背后的原因基本上是三个。第一个，跟美国的诉讼还在激烈进行当中，所以整个的审核团队的配置一定会发生调整，把原来集中在马来西亚进行审核的很多岗位分散到欧盟和美国各地去，这是要干的第一件事。第二个，它的AI审核现在已经相对比较成熟，可以一部分替代人工的工作了。第三个，字节跳动的AI战略也发生了一定的调整，在马来西亚不需要那么多的中国员工了，所以也不需要跟他们配套的那么多的马来西亚员工。如果可以在马来西亚减少一定的审核员工的话，他们完全可以把这些员工放到一些成本更低的地方去。什么地方的人又讲英语，成本还更低呢？菲律宾啊，那个地方的成本会比马来西亚还要再低一些。这也是有可能导致这一次人员移动的原因。</p>



<p>这一次的马来西亚裁员，反映出字节跳动在全球进行成本控制以及技术发展监管合规之间的一种平衡。对于未来，大家可能可以看到更多的内容审核会用AI配合人工，或者配合少量人工的方式，分散在全世界各地进行本地处理。AI现在正在走向一个模型突破，看不到曙光，应用突破，大家努力投入的一个新的变化。</p>



<p>字节跳动，甭管是抖音还是TikTok，肯定都是现在全球所瞩目的一个核心靶子。字节跳动应该是目前还没有上市的最贵独角兽，即使是刚刚完成融资的OpenAI，也就是1,500多亿，而字节跳动的估值现在是有2,000多亿。而且普遍认为，字节跳动的估值是被极大低估的。</p>



<p>你说字节跳动如果真的是上市了，即使是TikTok和抖音分拆上市了，这两边加起来的市值应该是可以接近像梅塔，或者是接近上万亿美金的一个级别的。他的各种动作一定会被全世界的人，或者是全世界像我们这种科技博主所关注、所解读的。</p>



<p>今天呢，我们也去解读一下字节跳动在马来西亚裁撤700名员工，可能背后隐藏的各种意义。感谢大家收听，请帮忙点赞，点小铃铛，参加Discord论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>OpenAI或将ChatGPT涨价至2000美元/月，未来发展何去何从？</title>
		<link>https://lukefan.com/2024/09/09/openai%e6%88%96%e5%b0%86chatgpt%e6%b6%a8%e4%bb%b7%e8%87%b32000%e7%be%8e%e5%85%83-%e6%9c%88%ef%bc%8c%e6%9c%aa%e6%9d%a5%e5%8f%91%e5%b1%95%e4%bd%95%e5%8e%bb%e4%bd%95%e4%bb%8e%ef%bc%9f/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 09 Sep 2024 00:40:10 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[2000美元每月]]></category>
		<category><![CDATA[AI发展]]></category>
		<category><![CDATA[AI算法]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[API]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Information]]></category>
		<category><![CDATA[iPhone良品率]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI团队]]></category>
		<category><![CDATA[Orin猎户座模型]]></category>
		<category><![CDATA[Q星算法]]></category>
		<category><![CDATA[Scaling law]]></category>
		<category><![CDATA[TOKEN费用]]></category>
		<category><![CDATA[上市]]></category>
		<category><![CDATA[主权大模型]]></category>
		<category><![CDATA[云计算]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人才招聘]]></category>
		<category><![CDATA[价格上涨]]></category>
		<category><![CDATA[传闻]]></category>
		<category><![CDATA[信息传播]]></category>
		<category><![CDATA[印度制造]]></category>
		<category><![CDATA[合成数据]]></category>
		<category><![CDATA[合成数据训练]]></category>
		<category><![CDATA[商业合作]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[国有化]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型训练]]></category>
		<category><![CDATA[安全成本]]></category>
		<category><![CDATA[富士康]]></category>
		<category><![CDATA[幻觉]]></category>
		<category><![CDATA[微软]]></category>
		<category><![CDATA[拉玛模型]]></category>
		<category><![CDATA[数据处理]]></category>
		<category><![CDATA[数据枯竭]]></category>
		<category><![CDATA[数据清理]]></category>
		<category><![CDATA[数据生成]]></category>
		<category><![CDATA[显卡]]></category>
		<category><![CDATA[显卡销售]]></category>
		<category><![CDATA[未来展望]]></category>
		<category><![CDATA[未来方向]]></category>
		<category><![CDATA[模型成本]]></category>
		<category><![CDATA[盈亏平衡]]></category>
		<category><![CDATA[盈利模式]]></category>
		<category><![CDATA[科技创新]]></category>
		<category><![CDATA[科技媒体]]></category>
		<category><![CDATA[科技新闻]]></category>
		<category><![CDATA[科技趋势]]></category>
		<category><![CDATA[算力中心]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[草莓算法]]></category>
		<category><![CDATA[融资]]></category>
		<category><![CDATA[行业分析]]></category>
		<category><![CDATA[行业领导者]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[连年亏损]]></category>
		<category><![CDATA[高智商犯罪]]></category>
		<category><![CDATA[黄仁勋]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1550</guid>

					<description><![CDATA[在本期老范讲故事的YouTube频道中，我们探讨了OpenAI可能将ChatGPT的价格上涨至2000美元每月的传闻。消息来源于国外著名科技媒体Information，指出OpenAI因连年亏损及新模型成本上升，可能将价格上涨至100倍。虽然具体涨价细节尚未明确，但传闻引发了广泛讨论。此外，我们还探讨了OpenAI的Q星算法、草莓算法及Orin猎户座模型的潜力及应用前景。文章深入分析了大模型的现状及未来发展方向，包括Scaling Law的局限性和合成数据的应用。最后，讨论了OpenAI面临的挑战及其可能的解决方案，如涨价、融资、上市和探索新商业模式。

家人们！ChatGPT要涨价？！😱

最近国外科技媒体Information爆料，OpenAI因为连年亏损，要给ChatGPT涨价！而且有可能涨100倍！ 2000美元一个月！ 🤯🤯🤯

我的钱包已经开始瑟瑟发抖了...

不过！先别慌！ 这消息到底是不是真的？

老范觉得，大概率是“幻觉”！

为什么这么说？

* Information只是说“有可能”涨价，具体涨多少、怎么涨都没说清楚！
* OpenAI现在一年要烧掉100亿美元！ 主要都花在算力、团队和新模型上！
* 现在ChatGPT的盈利模式主要就是订阅和API调用，一年收益才35亿美元！

所以，OpenAI想靠涨价100倍来解决问题，不太现实！

那OpenAI到底要怎么办？

* 不停融资？上市？ 治标不治本！
* 重新定义商业模式？ 路还很长！
* 国有化？ 交给国家？

OpenAI的未来，扑朔迷离啊！

家人们，你们觉得OpenAI会怎么走下去？

#ChatGPT #OpenAI #AI #涨价 #商业模式 #科技 #未来 #老范 #深度分析]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="OpenAI或将ChatGPT涨价至2000美元/月，未来发展何去何从？" width="900" height="506" src="https://www.youtube.com/embed/nmXH915FRN4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>2,000美元一个月的ChatGPT还会有人用吗？</p>



<p>大家好，这里是<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>今天咱们来讲一讲OpenAI有可能给ChatGPT涨价的事情。消息哪来的？国外著名科技媒体Information上报道，OpenAI因为连年的亏损，而且新的模型成本快速上涨，所以有可能给ChatGPT涨价。涨多少呢？他们也是搜集了很多的信息以后，判定有可能会涨到100倍，也就是2,000美元一个月。这是不是幻觉呢？大概率是。</p>



<p>那你说Information上面怎么会有幻觉呢？需要注意，Information上面也是说，我们根据各种信息总结出来以后，有一种声音提到有可能会涨100倍。具体是哪个涨100倍并没有说。到底是每个月这个20美金的订阅费用涨100倍，还是说TOKEN的费用，或者其他的一些商业合作的费用，涨到100倍都没有说。而到底是涨100倍，还是说按照这样的一个级别去涨，现在也没有讲清楚。所以只是说，我们根据传言得到了这样的一个消息，这就算是一个幻觉。</p>



<p>咱们再讲一个幻觉的故事。前面有人提到，印度产的iPhone良品率只有50%。后来被富士康的人出来辟谣，说没有那么差。如果良品率只有50%，苹果也受不了。其实印度产的iPhone良品率比中国的低10%。郑州富士康的iPhone良品率大概是96%，印度大概是85%或者86%这样的一个水平，其实依然是可以接受的。</p>



<span id="more-1550"></span>



<p>那么前面讲的这个iPhone在印度产，良品率只有50%这件事，完完全全是造谣吗？也不是。有人报道说，印度的某一个零部件工厂，生产的iPhone外壳送到富士康检测之后，发现两个里面只有一个能用，这就是50%。也就是iPhone的某些工厂生产的某些配件，一些批次里面，它的良品率是50%。但是这样的消息拿到国内来以后，大家就传了，印度产的iPhone良品率就是50%。它会变成一个幻觉。</p>



<p>这种幻觉，我们一般认为它不叫完完全全的谣言，它是有出处的。只是大家把不同出处的信息进行总结归纳以后，就会变成一个假消息。以前有人在苏格兰坐火车的时候，看到有一头牛是紫色的，说苏格兰的牛都是紫色的。这个时候旁边人说，你不能这么讲啊，你应该说你在苏格兰看到了一头紫色的牛，而不能说苏格兰的牛都是紫的。另一个人又上来说，你这个说的依然不准确，那应该怎么说呢？说你在苏格兰看到一头牛，一头牛有一面是紫色的，另外一面你没看着。你不知道，但是如果有人出去传，苏格兰的牛都是紫色的，你说他算造谣吗？咱们稍微扯得远一点，讲一下这种幻觉是怎么产生的。其实，人也会产生幻觉。苏格兰的牛都是紫色的，印度产的iPhone只有50%的良品率，这就是人类自己产生的幻觉。</p>



<p>所以我们不要光去嘲笑大模型。好，我们继续往下讲，OpenAI现在到底在干什么？其实很多人也很关心这件事情。这一段时间来，传出了很多的新名词，但这些新名词都代表什么意思？</p>



<p>比如说，去年山姆·奥特曼突然被干掉，失去CEO职位，失去董事会职位的时候，就传出来的Q星算法，这玩意到底干嘛使的？今年前几个月，山伯特曼突然放了一张草莓的照片，那么草莓算法到底干嘛用的？以及山姆·奥特曼号称马上要发布的Orin猎户座模型到底是什么，或者说非常强大的Orin猎户座模型到底是什么？</p>



<p>前面号称OpenAI要涨价100倍的这篇《Information》文章里面也进行了一定的解释，它把这三个算法串起来了。Q星算法是主要做科学和数学计算的。大家知道，大语言模型通过语言进行推导，它就比较容易犯9.1比9.9大的这种错误。它从语言上看，11一定比9大，但如果有一个数学相关的模型直接算，就可以避免这种错误。这就是Q星算法。</p>



<p>而草莓算法，其实是以Q星为基础做出来的，也就是以数学和科学比较强劲能力的算法为基础的。它主要的特性是有极强的推理能力，它可以直接拆解我们所需要的任务，而得到一个完整的结果回来。这就是草莓算法。据说这种强劲推理能力的草莓算法，今年秋天就会面世，应该没几个月了。</p>



<p>而下一代的大模型，非常强劲的大模型Orin，也就是猎户座模型，是使用草莓提供的合成数据进行训练的。它把所有这些东西综合在一起。</p>



<p>现在其实大家遇到了一个问题，是什么呢？就是scaling law快卷不动了。Scaling law就是缩放法则，所有的AI公司老板都信誓旦旦地拍着胸脯跟大家讲，我们依然相信scaling law是成立的。英伟达的股票涨成现在这样的一个状态，也是大家相信scaling law依然成立。</p>



<p>Scaling law是什么？我不断地往里加数据，加更多的数据，加更大的算力，也就是显卡，算更长的时间，得到更大的模型，一定效果更好。这就是scaling law，也就是我们以前讲的大力出奇迹，只要你不停地往里堆，总有一个更好的结果出来。虽然所有人都在喊这件事情。但其实，过去的一年里，这个 scaling low 基本上并没有被突破，没有更大的模型出来。虽然我们看到了拉玛 3.1405B 的推出，但因为前面有不公开参数的 GPT-4、GPT-4O 以及 Gemini 1.5 Pro 这样的版本，所以我们并不能确定拉玛 3.1405B 是否在 scaling low 上继续往前走。</p>



<p>Anthropic 的 Cloud，它们最强的模型叫 Opus，虽然也没有公布参数量，但大家普遍认为它应该是跟 OpenAI 的 GPT-4 或者 GPT-4O 的参数量级在一个水平上的。结果，Anthropic 推了一个 Cloud 3.5，大家觉得实在是太香了。现在可能使用 Cloud 3 Office 的人已经越来越少了，而 Cloud 3.5 的 Office 版本这么长时间也一直没推出来。</p>



<p>大家已经在这种大模型的基础上进行蒸馏之后，往回退了一步，并没有继续往前走去实现更大的模型。而现在，各种 70 币上下规模的模型，它们的能力已经接近 GPT-4O 了。无论是使用拉玛 3.1 的 70 币，还是使用通义千问的 72 币，或者其他一些公司训练出来的开源、闭源 100 币以内的模型，它们不能说完全超越或全面碾压 GPT-4O，但在某些特定场景下，已经接近或超越 GPT-4O 的能力了。</p>



<p>小模型结合各种场景之后，甚至比这些 70 币的模型表现还要更强一些。也就是这种 7 币或者十几币的模型，如果进行一定的微调，再结合特定使用场景的话，效果也很好。这导致什么呢？对于更大模型的需求在变弱，大家觉得现在这些模型挺好的。在这样的基础上，不断把这个模型变得更小，让它更加贴合具体的应用，效果也非常好。</p>



<p>还有一个原因是什么呢？就是 GPT-4 和 GPT-4O 指明方向以后，大家已经追赶了一年了。追赶到现在一个位置后，大家说我们已经基本上达到和超越 GPT-4O 的水平，再往前走没有方向了，没人指明道路。现在大家都在等待行业的老大，或者叫排头兵的 OpenAI，来告诉我们下一个方向在哪里。</p>



<p>现在 OpenAI 告诉大家，下一个方向有可能是 Orin。而 Orin 跟现在的 GPT-4O 比起来，它的差异是什么地方呢？就是推理能力更强，逻辑能力更强，幻觉更少。这是现在新的追求方向。但是 Orin 出不来，大家也不知道应该怎么做，还是要等它做出来。</p>



<p>阻碍 scaling low 继续发展的还有一大原因，就是数据枯竭了。训练现有的模型已经可以把当前能够找到的数据基本上都使完了。更多的数据进行清理和处理的话，成本非常高。我们直接找到过往的书籍和互联网上的信息，对这些数据进行清理，人工的这种加工成本是非常高的，因为数据量实在太大了。很多的低质量数据，拿去训练以后，可能幻觉会变得更厉害。</p>



<p>所以现在大家普遍使用的方法是什么？就是使用合成数据。所谓的合成数据，就是由大模型生成的数据，再去训练新的大模型。而这些数据又不是靠大模型直接生编的，而是什么呢？让大模型去取代做数据清理的人工。我们拿到大量的网络数据以后，把这些数据交给一个大模型，让它去做清理，清理完了以后重新生成一遍。</p>



<p>这些合成数据也不算是无根之木，它也是从现实来的，只是经过大模型的过滤和清理。拿这样的数据再去训练新模型，发现效果会更好。拉玛3其实就是这么训练出来的，这拉玛3里边的数据是用拉玛2进行清理出来的，也算是合成数据，训练大模型的一个典范。</p>



<p>而现在OpenAI的Orin大模型，就是准备使用它的草莓算法生成合成数据，然后再去进行训练。OpenAI自己玩的就是一个心跳。现在新一轮融资还没有关闭，新一轮融资就是已经有领投方了。据说有一家公司说，我们愿意出10亿美金，然后再等其他人跟投，希望可以凑个几十亿美金让OpenAI再活半年。</p>



<p>OpenAI这个几十亿美金，大概也就是活半年。他一年应该妥妥的会烧掉上百亿美金，而且这个数字可能还会快速上涨。因为去年呢，他亏了大概50亿美金，今年应该亏到上百亿美金是没什么问题的，等到明年可能就是几百亿美金的亏损。</p>



<p>现在大家预估OpenAI一年的收益是35亿美金，也就是这个里面大概20亿美金来自于一个月20美金的订阅，剩下的可能是做TOKEN，我们使用API买TOKEN的钱，以及其他的一些服务费。这个是OpenAI的收益预估，因为它毕竟不是上市公司，没有财报出来，所以大家只能去猜测。</p>



<p>而亏损，每年OpenAI大家预估的亏损额是50亿美金，这是一个非常恐怖的数字。OpenAI手里边的现金，你想微软给了100亿，再加上其他一些人给的钱，所以现在基本上是烧完了，再不融到这一轮就没得玩了。你融到这一轮以后，可能也就是再烧半年的。</p>



<p>那你说钱这么多都烧哪去了？第一个就是烧算力。你得上微软爸爸那里去交钱，买微软云上的算力，继续去训练大模型。第二个，你现在是1,500人团队了。而且，OpenAI现在团队规模还在不断扩张。那你人多了以后，肯定有很多的内部是是非非。有一个故事说，这个活原来一个人能干，现在不行啊，干着太累了。招两个人来，一共三个人来做这个事情。原来这个人变成领导了，后来发现比以前还累。说为什么？说我现在需要给他们做计划，让他们也做计划，回来我要审核他们的计划，看看这个数据应该怎么去分配，任务分下去。我还要调解他们之间的矛盾，还要去做考核计划。说这个比以前我一个人把活干了还累啊。</p>



<p>所以，这个人增加了以后，绝不是说我增加了一倍的人，生产的效率就提高一倍。经常是提高到一定程度以后，你的生产效率就不会再提高了，而开始下降。这个就算是一个边缘。所以，OpenAI内部现在是是非非，肯定是非常多的。作为当前最红的行业AIGC的领头兵，也就是当红炸子鸡，OpenAI自己招聘人才，以及他要留住自己的人，成本肯定会直线上升。投资基金、各种猎头公司，每天都趴在他外边等挖他的人。</p>



<p>那么，你要想让这些人留下来，一定要多给钱。新的模型，训练成本肯定也是几何级数上升的。你想让scaling low再次起作用，就一定是要投入更多的数据、更多的算力，这个事没有办法。而且，越大的模型，你的安全成本就越高。以前我们就都在讲，什么叫知识越多越反动？你这个模型变聪明了以后，他有可能给大家带来的伤害会变得更加惨重。我们想让一个更聪明的大模型成为安全的模型，所需要支付的成本也一定会更高一些。如果这玩意再出错了，那就是高智商犯罪了。</p>



<p>OpenAI现在真正的困境是什么呢？就是不赚钱。开始其实有一些路就走错了。聊天模式20美元的订阅以及TOKEN收费，不光是他自己走错了，还把整个的行业都带沟里去了。他有他强的地方，就是你通过聊天方式，一开始就震惊了全世界，让所有人，不管适不适合去用AI的，大家都冲上来用，成为了全世界关注的焦点。这是他使用聊天模式取得的成就。</p>



<p>但是，聊天模式是一个双刃剑。一面是说大家都关注了，每一个人都可以用；另外一面是什么？你要想从聊天模式再继续往前走一步，可以让大家能够更好地体验到AI的能力，这一步其实是非常难以越过的。另一方面，20美金订阅，那他出了这样的一个数据之后，导致整个行业只能跟他对标。微软的Copilot也是20美金，谷歌的Gemini你只能在20美金往下做，其他的一些cloud等等。<br>都是在20美金这个范围上下去波动。至于一开始，那个人到底为什么定他20美金，这个大家只能想破脑袋去想了。前人一定是有他的道理。就跟原来有一个笑话说，有一个大的印象派画家，他有一副名画，很多人搞不清是画什么的。一堆人在那去做研究，甚至有些专家专门去研究这幅画，还发表了很多论文，成为了学术态度。</p>



<p>第一个研究这幅画具体画什么的学术泰斗离开人世去了天堂以后，正好碰到这个画家，就去问他说：“您那画到底画什么呢？你看我研究了一辈子，都成为学术泰斗了，我也没研究明白，还跟很多个派系吵来吵去的。”那个画家说：“你到底说的哪幅画，我想不起来了。”最后他太太在旁边提醒了一下：“你说的不会是擦手布吧？你每次画完画，然后拿那个布擦手，形成了一副印象派的名画，让后人研究了很长时间。”</p>



<p>所以20美金有可能就是这么来的。而20美金跟token付费这种事情，其实会极大限制使用AI的人数，因为它会限制流量的上升，也会限制新的商业模式的爆发，这个其实是有毒的。现在OpenAI其实面临着当时谷歌的困扰。谷歌的困扰是什么？是分叉。当时谷歌把安卓做出来以后，所有人一看，这个东西实在太厉害了，我们拿它去分叉，就有安卓的各种智能家电的操作系统、安卓的手表操作系统、安卓的各种嵌入式操作系统、安卓的各种定制操作系统。谷歌说不行，你们不能分叉，我一定要把安卓的版本一直升上去，让你们所有分叉人都死掉。</p>



<p>OpenAI其实现在面临的困难是一样的，它指明了方向，大家各自去发展，长出了Anthropic、拉玛、Gemini，现在的标准已经不统一了。想要继续站在排头上，继续引领风潮，必须不断放出新消息，不断去指明方向。但是，手里边的钱又不够多，攻城能力也不够强，也没有盈利能力，只能是不停地放空话。你像从2024年年初到现在，OpenAI已经吹了多少牛，到现在都没有实现。</p>



<p>那么OpenAI的解决方法有哪些呢？第一个就是涨价，像刚才我们前头讲的，把这个费用涨100倍，涨到2,000美金一个月。这就是第一个处理方法，涨上去以后就可以达到盈亏平衡了。第二种方式就是不停的融资。山姆·奥特曼在斯坦福大学演讲的时候也讲过，说你们不要去研究挣钱的事情，我就不停的去找钱，反正我有这个能力。找完了以后呢，就把它烧掉，再去找。现在新的一轮钱找到了，这条路还是在往前走，而OpenAI准备去上市。上市的时候，你又可以圈一大笔钱吧。但是上市了以后，你未来还是要去盈利的啊。所以甭管是找钱也好，还是上市也好，算是饮鸩止渴，或者是寅吃卯粮，我们把未来的一些可能性把它消耗掉，那继续在亏损和越亏越大的这个道路上狂奔向前，这不是一个长久的解决之道。</p>



<p>还有一条路是什么？就是重新发明定义，走通一些新的商业模式。这可能是山伯特曼或者整个OpenAI，包括整个硅谷和行业，都在期盼的一个事情，就是说我们不再去依赖传统的这种流量商业模式了，而是做一个新的商业模式，像收税一样，把这个税收上来，让大家像一个基础设施那样去使用这些AI大模型。但是这种模式呢，到目前为止还没有走通。未来到底能不能走通这件事情，还是一个问号。</p>



<p>那你说，如果这个商业模式走不通，盈利呢？其实从短期来看，还是很难的。还有没有其他的方式？OpenAI难道就要倒在这里了吗？还有一个方式就是国有化，直接交给国家，让国家通过税收、通过印钱直接去使用这些大模型。现在Scaling Low继续往前走的话，可能迟早会走到国有化这条路上。</p>



<p>那么就看到底是大家能够先去找到合适的商业模式，让整个AIGC产业健康发展，还是最终让AIGC都沦为主权大模型。到底是走哪条路？因为主权大模型这件事情，是黄仁勋提出来的，是说我们以后每一个国家都去买自己的显卡，建自己的算力中心，每一个国家都拥有自己的主权模型。这是他提的这条路，不知道是光明还是黑暗，但也在我们的前方等待着我们。</p>



<p>好，这就是我们今天讲的故事。一OpenAI准备涨价100倍，为开始探讨一下OpenAI未来的一些发展方向。好，今天的故事就讲到这里，感谢大家收听。请帮忙点赞，点小铃铛，参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">Discord讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！</title>
		<link>https://lukefan.com/2024/06/04/%e9%bb%84%e4%bb%81%e5%8b%8bai%e6%97%b6%e4%bb%a3%e8%8b%b1%e4%bc%9f%e8%be%begpu%e9%9d%a9%e5%91%bd%ef%bc%9a%e4%b8%80%e5%9c%ba%e5%b8%82%e5%80%bc2-7%e4%b8%87%e4%ba%bf%e7%be%8e%e9%87%91%e7%9a%84%e7%8b%82/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 04 Jun 2024 01:02:00 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[英伟达，黄仁勋的故事]]></category>
		<category><![CDATA[1.8万亿参数]]></category>
		<category><![CDATA[2.7万亿美金]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AIPC]]></category>
		<category><![CDATA[AI工厂]]></category>
		<category><![CDATA[AI工厂时代]]></category>
		<category><![CDATA[AR]]></category>
		<category><![CDATA[Blackware]]></category>
		<category><![CDATA[COMPUTEX]]></category>
		<category><![CDATA[GPT-4]]></category>
		<category><![CDATA[GPT4]]></category>
		<category><![CDATA[GPU]]></category>
		<category><![CDATA[GPU技术大会]]></category>
		<category><![CDATA[GPU核心]]></category>
		<category><![CDATA[GTC]]></category>
		<category><![CDATA[H1]]></category>
		<category><![CDATA[H100]]></category>
		<category><![CDATA[MoE]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[NVlink]]></category>
		<category><![CDATA[RTX]]></category>
		<category><![CDATA[scoring low]]></category>
		<category><![CDATA[SERVER]]></category>
		<category><![CDATA[stable diffusion]]></category>
		<category><![CDATA[TOKEN]]></category>
		<category><![CDATA[TX]]></category>
		<category><![CDATA[VR]]></category>
		<category><![CDATA[云计算]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[内存]]></category>
		<category><![CDATA[军备竞赛]]></category>
		<category><![CDATA[分析]]></category>
		<category><![CDATA[参数]]></category>
		<category><![CDATA[参数量]]></category>
		<category><![CDATA[台积电]]></category>
		<category><![CDATA[合作伙伴]]></category>
		<category><![CDATA[商业]]></category>
		<category><![CDATA[垄断地位]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[工程师]]></category>
		<category><![CDATA[市值]]></category>
		<category><![CDATA[应用开发]]></category>
		<category><![CDATA[开发者]]></category>
		<category><![CDATA[微软]]></category>
		<category><![CDATA[戴尔]]></category>
		<category><![CDATA[技术大会]]></category>
		<category><![CDATA[投资人]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[推理能耗]]></category>
		<category><![CDATA[支架]]></category>
		<category><![CDATA[数据中心]]></category>
		<category><![CDATA[显卡]]></category>
		<category><![CDATA[机器人]]></category>
		<category><![CDATA[机箱]]></category>
		<category><![CDATA[模型]]></category>
		<category><![CDATA[模型训练]]></category>
		<category><![CDATA[游戏助手]]></category>
		<category><![CDATA[版本]]></category>
		<category><![CDATA[生态链]]></category>
		<category><![CDATA[用户]]></category>
		<category><![CDATA[硬件]]></category>
		<category><![CDATA[科技]]></category>
		<category><![CDATA[移动互联网]]></category>
		<category><![CDATA[竞争]]></category>
		<category><![CDATA[竞争对手]]></category>
		<category><![CDATA[竞争者]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[算力芯片]]></category>
		<category><![CDATA[缩放定律]]></category>
		<category><![CDATA[股价]]></category>
		<category><![CDATA[能耗]]></category>
		<category><![CDATA[芯片]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[苹果]]></category>
		<category><![CDATA[行业秘密]]></category>
		<category><![CDATA[计算机]]></category>
		<category><![CDATA[计算机大会]]></category>
		<category><![CDATA[训练能耗]]></category>
		<category><![CDATA[设计]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[贷宽]]></category>
		<category><![CDATA[超威]]></category>
		<category><![CDATA[车载芯片]]></category>
		<category><![CDATA[软件]]></category>
		<category><![CDATA[铁皮]]></category>
		<category><![CDATA[黄仁勋]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1286</guid>

					<description><![CDATA[大家好，欢迎收听老范讲故事YouTube频道。今天，咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUT ... <a title="黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！" class="read-more" href="https://lukefan.com/2024/06/04/%e9%bb%84%e4%bb%81%e5%8b%8bai%e6%97%b6%e4%bb%a3%e8%8b%b1%e4%bc%9f%e8%be%begpu%e9%9d%a9%e5%91%bd%ef%bc%9a%e4%b8%80%e5%9c%ba%e5%b8%82%e5%80%bc2-7%e4%b8%87%e4%ba%bf%e7%be%8e%e9%87%91%e7%9a%84%e7%8b%82/" aria-label="阅读 黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<p><br></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="黄仁勋AI时代英伟达GPU革命：一场市值2.7万亿美金的狂欢，COMPUTEX 2024重磅发布Blackware GPU，1.8万亿参数GPT4揭秘！" width="900" height="506" src="https://www.youtube.com/embed/AOpATS-sitc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事YouTube频道。今天，咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋，作为现在真正AI时代的当红炸子机，可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱，但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下，英伟达现在市值2.7万亿美金。大家知道，再往前就是微软的3.2万亿，第二名是苹果，2.9万亿，还差那么一点点。可能稍微一哆嗦，英伟达就有可能成为世界第二市值的公司了。那么，黄仁勋上面都讲了什么呢？作为网红，肯定还要先暴露一下行业秘密，别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数，就是一个170多亿级别的模型。但是到GPT-4的时候，OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了，对OpenAI来说，这个数据不是很准确。我来辟谣了，但是具体有多少，从来没有讲过。黄仁勋在前面的GTC，就是GPU技术大会上，每年一次的英伟达自己的开发者大会上，上面也讲了……</p>



<p>说起来1.8T，这个1.8T指的是什么呢？其实就是1.8万亿参数，而且它是一个Moe模型。当时OpenAI并没有对此多说什么，但这一次，在《Computer Text》上，他们又反复强调了这个事情，明确指出GPT-4的训练参数达到了1.8T。这让人们意识到，想要达到GPT-4的水平，还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型，比如几百亿参数的模型，比如梅塔的拉马3可能会有一个400亿参数的模型，国内也出现了很多一两百亿参数的模型。但事实是，即使提到的1.8T参数，如果考虑到是Moe模型，分成八份来看，那么单个模型可能也就相当于200多亿参数的水平。</p>



<span id="more-1286"></span>



<p>这次先通过揭示现状，然后发布新GPU，但对于具体数据——多少核心、多大算力、内存多大、带宽多少，人们似乎已经感到麻木。现在大家更关心的是，如何将这些GPU有效地集成起来，如何把它们拼装成服务器，以实现更强大的计算能力。这背后的提升，不是5%或10%的增长，而是几倍的飞跃。这成了技术关注的新焦点。</p>



<p>如何装到机房里头，统一为别人去服务，这个是现在大家更关心的事情。所以现在呢，他们发布的叫Blackware GPU，而且，它取出来那个板子上是两块GPU和一个CPU，应该是他们自己做的CPU。这是一整块，然后可以装到一个大的服务器里面去。再把这些服务器堆叠在一起，使用它的NV link，让这些GPU可以像一块完整的GPU那样工作。这样说，你就可以去训练更大的模型了。而且，今年是这个Blackville，明年就是Blackville Ocho，再往后是Robin。就是说，往后一代都给你规划好了。再往后一步，是叫Robin Ocho，所有的GPU一直规划到2027年，一定让2027年之前的GPU都给你规划好了。</p>



<p>现在呢，很多大佬还在惦记着买H100。他现在就专门告诉你说，你看我这个艾克威尔跟这个H100比，它强在什么什么地方，好在哪哪哪。但是很多人还想买H100，这是为什么？可能Blackware它的这种工作方式，或者说它可能需要跟更多的设备先行捆绑，而H100的话，相对来说可能兼容性会更高、更好一些。就是你用任何的这种通道服务器，都能相对容易地兼容和使用。</p>



<p>你把它插上去都是可以用的。likerware我倒是真没看到它出这种——就是像原来金砖啊，像我们以前讲的A100、H100这样的，我们管它叫金砖嘛，就是它的卡还是金黄色的，方方的一块，可以插上去的。好像没有看到这样的东西啊。现在呢，基本上都是以两个black Verre在一起，然后头上带一个CPU，是完整的这个配置。</p>



<p>当然了，这些大佬，包括马斯克、扎克伯格，可能也不是说我就一定要去买H100。对于他们来说，H100就算是一种计量单位，就是说啊，他们会算上自己到底买了多少H100，或者说现在手里的算力相当于多少H100。你像扎克伯格之前讲，说他买了35万块，加上他手里现成的有60万了，再加上后面再接着买，现在扎克伯格手里的大概有接近100万块H100，相当的算力。这就跟我们造炸弹的时候说，这个炸弹相当于多少吨TNT啊，最后变成了一种衡量单位了。</p>



<p>老黄（指NVIDIA的CEO 黄仁勋）就告诉大家说啊，你们来买新的吧。而且这种升级是呈几何级数升级的，所以不要去买旧的，去买新的，这样的话才能够保持它的垄断地位。如果说哎，我现在这个GPU再涨上去，涨了10%，涨了20%，那大家就不买它的了，就去买AMD，买英特尔，买其他的这些算力芯片去了。</p>



<p>甚至像高通这样的公司，都能做出一定的算力芯片来。这样一来，人们可能就不会一定买它的产品了。但是现在的情况是，我们谈论的是算力要涨十倍、百倍、千倍，而且每年都要这样增长。为什么呢？因为这成了一场军备竞赛。每个人都害怕落后，就像人们常说的“输在起跑线上”。我们从小让孩子上补习班，是为了什么？就是出于这种害怕，这种焦虑感。老黄就是在给大家制造焦虑：你现在买了旧的，等明年出了新的，你就落后了。你必须去买新的，然后当更新的版本出来时，你又要再买。毕竟，GPU不像软件，软件可以逐年升级，而且升级成本相对较低。但GPU，你需要整块购买，一年后淘汰，再换新的，这成本实在太高了。一片就是4万美金，Blackwell的价格我虽然没查，但肯定不便宜。所以，要让大家每年跟着升级，必须讲出一些更有诱惑力的故事来。目前，从算力成本和能耗几个方面看，确实在全面升级。一方面，算力成千倍增长，成本自然是变贵了。这没什么可争议的。但就单位算力的成本来说，它是下降了。比如，原来的H100卖4万美金，但使用Blackwell之后……</p>



<p>你可能继续达到H100同样的算力，这只需要原来1/10，甚至1%的成本，是这样大幅下降的。能耗方面也是如此，比如说，要达到原来H100的算力，所需消耗的能耗可能也只是原来的1%。如此发展，GPT-4的1.8T训练能耗引人注目，因为之前很多人讨论，GPT-4训练一次的能耗相当于多少个家庭一年的电力消耗，让人担忧AI发展的能源瓶颈。但现在的进展是，重新训练一遍的能耗降低了99.7%，仅为原来的1/350。而进行推理时，即训练完成后用于问答等任务，能耗更是降低到原来的1/45,000。这样的发展速度令人惊叹，从GPT-4推出至今不过一两年，能耗的减少就达到了如此程度。</p>



<p>军备竞赛在AI领域体现为不断制造焦虑，促使各方持续投入。这就像冷战时期的军备竞赛，你有武器，我必须跟进。如今在技术领域，特别是英伟达所处的，情况类似，但效果是整体提升，正如“一人得道，鸡犬升天”。之所以提到这一点，是因为他们还强调了除了芯片本身，还有Vlink技术，能够将服务器像拼图一样连接，整个机房的服务器作为一个单一GPU工作，展示了技术整合带来的巨大效能提升。</p>



<p>因为，这些服务器在一起，你的GPU的算率越大，可以并行处理的东西就越多，与内存和CPU之间的通道越宽，整个进行大模型训练的效果就会越好。所以他说，他可以干这件事情，但在这个过程中，这些服务器，或者其他一些相关的配件，都跟着他“鸡犬升天”了。比如说，像戴尔、超微电子这些给他造服务器的公司，全都因此受益，一路上涨。因为你不能只有GPU，不能只有他们的加速卡，还得把所有配件凑在一起，这些东西才能正常工作。而这些配件，都是值钱的。</p>



<p>在这个过程中，服务器肯定变得更贵了。比如说，原来用的是H100的服务器，现在变成了更高级的查克威尔的服务器，那自然是服务器变贵了。但你想，服务器变贵的过程中，到底是什么东西变贵了呢？其实，只有与H100相关的专利费变贵了。大家要注意，因为大家自己并不造芯片，也不造服务器，他也不造算力中心。他只是设计好GPU，交给台积电去生产、封装、测试，然后下交给板卡厂商制作成板卡，再由服务器厂商组装成服务器，最后等待比如马斯克这样的人购买安装。所以，整个服务器链条上的价格上涨，实际上主要是由于关键技术组件的成本上升，特别是H100相关的专利费用。</p>



<p>除了GPU价格飙升之外，其它相关成本也难免水涨船高。你不能期望其它东西都保持低廉，这显然不合逻辑。我们整体的成本基数提高了，但单位成本可能有所下降。不过，要注意的是，老黄的市场策略极为精准。GPU的知识产权价值多少，或者说它的设计成本是多少，他们心中有数。如果没有竞争对手，价格自然可以定得更高。但即便如此，人们依然能看到成本在以惊人的速度下降，甚至是以十倍、百倍的幅度。然而，GPU的设计价值却在不断提升。</p>



<p>除了NVIDIA本身，那些制造显卡、服务器以及各种配件的厂商，它们的产品也会随之增值。比如，如果你用一个价值4万美金的H100来搭建服务器，仅这一部分就是一笔昂贵的投入。而且，随着Nvlink标准的采用，替代了以往的Pcie标准，意味着新的配件、新的线缆等都将应运而生，价格自然比过去高出许多。</p>



<p>我记得早些时候，为惠普的小型机配备一个简单的支架，就是一个铁质架子，都能卖出数千元的高价。原因在于它专为小型机设计，很多工程师甚至会私下找工厂定制支架，替换官方配件以赚取差价。这背后反映的是，即便是一些看似不起眼的配件，在特定情境下也能变得极其值钱。</p>



<p>大家其实也都知道，那个铁皮的支架，你说能值多少钱？你凭什么一定要买惠普的？他只要是惠普的工程师给你装上，下次他接着给你修不就完事了吗？你跟着这个比较贵的东西一块去卖，他就会卖的很贵。但是这几天呢，戴尔和这个超威的股价，其实已经快有点绷不住了。大家心里也明白，虽然你们跟老黄跟的很紧，但是这个里头真的，你就是个卖支架的，卖个铁皮，卖个机箱的，你跟着里头的GPU一起水涨船高，这件事稍微的有点侮辱大家的智商。</p>



<p>现在呢，是AI工厂时代，现在老黄也讲说我们现在就是AI factory。在这样的一个时代，我们应该如何与时俱进呢？我记得在移动互联网刚开始的时候，我们写很多应用，当时我们在思考说，哎呀，我怎么能够省一点流量，因为那个时候流量很贵。我们都想着如何去节省流量，如何在使用的时候联网，不使用的时候怎么把它断开，想着怎么去省一点电，怎么去做一些其他的节省资源的事情，可以少占一些硬盘的空间，可以交互的时候少交互一些流量。当时的我一位老板就跟我讲，说你们想这个事情是错的，说为什么呢？就是因为很简单，随着时代的发展，这些东西都会变得不值钱的。比如说现在，流量咱们现在……</p>



<p>其实，基本上是没有流量焦虑的。我记得最早开始使用手机，那时候刚进入3G时代，我们都会做什么呢？每天定时打开流量，收完邮件后立即关掉。为什么会这样？因为酷，而且节省。现在，还有人这样做吗？没有了。现在，我们走到哪儿，站在哪儿，就开始刷抖音、看视频。已经很少有人会说，我必须节省流量，等到有WiFi的地方再做这些。绝大部分人没有这个意识了。</p>



<p>电的问题现在也不那么大了。虽然手机应用还需要省电模式，但现在的手机几乎都是一天一充。你的应用再费电，能比微信还费电吗？能比原神还费电吗？所以，这些问题也变得无关紧要。因此，很多以前为了省电而做的操作，实际上已经没有意义了。</p>



<p>再往后说，我们是否会考虑在硬盘或手机上占用更少的空间？以前在猎豹工作时，我们还在研究如何让软件占用空间尽可能小。但现在看看《原神》有多大，看看那些手机游戏的大小，再看看微信在你手机里占了多少空间，就会觉得，我们当初那么精良的考虑，好像都没什么大作用。是的，所以在AI Factory这个时代，也就是AI工厂时代，我们仍在思考如何能省一点TOKEN，情况依然如此。</p>



<p>我怎么能够让它反应得稍微快一点？我怎么可以调用不同的大模型？这个模型贵一点，那个模型便宜点。我尽量让便宜的模型干尽量多的事情，让贵的模型干少一点的事情，做一些其他的，比如优化（reg）或者做一些这种节省沟通交互的事情。可能真的再过一年，这些就会变得很可笑，就像我前面讲的，我们在做手机应用的时候，让它怎么去省流量，从网上下载的东西少一点，占的硬盘空间少一点。我们现在回想，那时候想的这些事情就显得很可笑。但是在AI时代，刚才我们讲的怎么能够省一点TOKEN，怎么能够让便宜的模型多干点，贵的模型少干点，怎么能够让多个模型相互搭配起来使用，可能也会变得很可笑。而且，这个时间会来的非常快。</p>



<p>黄仁勋呢，除了讲数据中心业务，就像我们刚才提到的Blackvail，一切都是数据中心业务，这也是现在英伟达核心的收入来源，没有之一。现在，他主要就靠这个业务玩。那么其他的呢？也还在讲，英伟达这家公司特别有意思，它不会说某一个业务特别好，就把所有的身家都压上去。它永远是在所有它认为有趣的地方投注，即使这一个方向很长时间没有结果，它依然会在里面坚持。那么，它肯定还有些其他的业务在做什么呢？</p>



<p>比如说，RTX加载的AIPC，因为前面微软发布的AIPC是基于高通的。现在，英伟达说了，你们使用英伟达的GPU，也可以达到同样的水平。英伟达专门为了AIPC设计了一款很小很轻薄的GPU，而且很省电。但这一块上，它稍微有一点尴尬。为什么呢？你如果真的要轻薄省电，你一定使用ARM的，对吧？就是使用高通的就好了。那你说，我现在稍微费点电也可以，这个英特尔自己也出了，英特尔说，你们就直接用英特尔完整的GPU加上算力核心就完事了，你不用再去单独配独立的GPU，依然可以达到AIPC的能力。包括AMD也是这么干的，AMD自己也产X86的CPU，AMD说：“来哇，你直接买我的APU加我的算力核心，就一次搞定。”</p>



<p>那么，英伟达的RTX这个方案为什么尴尬呢？就是它必须要再搭配一块Intel或者是AMD的X86的CPU，它才可以正常工作起来。这对于强调轻薄便携的AIPC来说，就稍微有些尴尬了。但是，英伟达也强调了，加上他们的技术后，算力是苹果的多少多少倍，主要是与苹果的M系列芯片在比较。在这方面，我们还是要相信老黄的，他的算力确实是靠功率支撑起来的，如果他真想达到某个目标，他有这个实力。</p>



<p>说我在电脑上做Stable Diffusion的，这样出图，速度很快。那一定是配着呼啸的风扇声，以及呼呼转的电表，一起来工作的。除了AIPC之外，还在讲游戏助手。但是这个呢，我觉得大家看着开心一下就可以了。他说我做个助手帮大家打游戏，这个呢，就属于工程师思维——一拍脑袋觉得，“我需要一个这个”。其实，游戏跟这个没有那么大关系。就算是AI应用在游戏里面，应该也不是通过游戏助手的方式去应用的。</p>



<p>另外，还展示了机器人。他说所有跟机器人相关的东西，我们都上，也做了全套的机器人套件。还有，其实VR、AR以及车载芯片，其实都在英伟达的整个路线图里边。再往前走，很多人就会关心，英伟达到底还能坚持多久呢？他真的还差2,000亿美金就追上苹果了，对吧？苹果2.9万亿，他2.7万亿，真的差的不多了。他到底能不能超过苹果，甚至能不能超过微软，成为全世界最值钱的公司？这个其实大家心里都在打鼓。</p>



<p>英伟达呢，跟其他不管是微软也好，苹果也好，有一个特别本质的区别，就是它是一个“轻公司”。这个“轻公司”赶上时代红利是可以的，但是到底能不能长久地坚持下去，这个就很难了。黄仁勋展示现在的成就，未来的路线图，让人充满期待的同时，也不免有几分疑虑。</p>



<p>但是，并没有说我要砸重金进去，变成一个重型公司。大家注意，苹果是个很重的公司，它生产电脑——虽然电脑也是台湾人给他造的——它的手机是富士康，包括比亚迪都在给他造手机。它是这样的一个公司，虽然供应链在外面，但是这些货品、这些设计，包括全球的仓储物流，很多东西都是属于苹果自己的。所以，苹果是个很重的公司。微软其实也是一个很重的公司，微软自己在造Surface，那个东西虽然卖的并没有那么好，但是它也是电脑平板，甚至还有很多其他的硬件，比如说键盘鼠标。微软键盘鼠标其实做得非常好。而且微软其实还有一块很重的资产，那就是云计算中心，它有很多的数据中心。微软现在是全世界可能GPU最多的公司了，因为后边有OpenAI这样的一个“亲儿子”，那你肯定是要靠这么多的GPU去养的。微软现在的GPU，如果大概核算成H100的话，应该有180万块，这都是重资产。</p>



<p>谷歌呢，也是一个很重资产的公司。谷歌紧跟在英伟达之后，他现在是市值第四的公司。谷歌我记得在云计算兴起之前，曾经有一段时间，他拥有全世界大概6%的服务器，这是一个多么恐怖的数字。而现在，虽然应该没有那么多，但谷歌的数据中心依然规模惊人。</p>



<p>也是一块非常非常沉重的业务。而且，另外一点是什么呢？就是我们来看，整个的生态是否稳固，或者说，整个的价值体系是否可以稳定地升级上去。还有一个点可以看是什么？就是你上下游的生态链是否足够稳定。围着你吃饭的人到底有多少？以前我们在学生物的时候讲过一点：在一个自然环境里头，食物链越长，或者说参与到食物链里的动物、植物越多，它整个的生态系统就越稳定。为什么呢？因为其中有一些波动，其他的这些生态位上的人，或者这些动物，就可以慢慢地把它平衡回来，而不是说啊，我的食物链很短，就两三节，参与的动物也不是很多，植物也不是很多，可能中间稍微有一点闪失，这个食物链就崩溃了。</p>



<p>咱们来看看苹果，上下游其实有非常多的人围着他吃饭。我们不说这些果链企业，就光在苹果应用市场里头，做应用的这些人，也有几十万人，对很多人来说，这是他们的收入来源。再看谷歌，像我们现在在这看YouTube，我在这拿着YouTube的广告费，那我们也算是谷歌生态链里边的一环。那是非常多的人靠着谷歌生活。啊，微软那不必说这些靠广告吃饭的，因为微软的广告并没有那么多，但是微软上下游，是有大量的系统集成公司，靠着微软吃饭的。</p>



<p>还有微软云上的大量客户，但是英伟达有没有这么多人靠着它吃饭呢？英伟达虽然一直努力地在打造他的生态链，整个生态环境，但是并没有那么多。所有能战胜英伟达的，像刚才我们说的戴尔、超威等，这些已经都涨疯了。剩下的呢，其实没有那么容易贴上去。虽然有很多人说，“我们拿英伟达的CODA，我们去写这些Transformer的大模型。”但是这些人呢，实际上在整个的生态链里面是非常非常小的一群。现在能够真正把这个东西跑通的人非常少，虽然这个领域的人才工资非常高，但是人数真的不多，它没有真正撬动大众。所以，我从这两个方面来论述，英伟达到目前为止，依然是一个很轻的公司，资产很轻，它的整个生态链其实也是相对短而且相对脆弱的。</p>



<p>那么英伟达现在能够赌的是什么呢？就是这个缩放定律，叫“scoring low”。只要这个东西依然有效，黄仁勋呢，就还可以继续狂飙那么一段时间。“scoring low”是什么东西？就是我堆更多的数据，上更大的模型，上更大的算力去计算，然后得到的模型效果就更好。这个东西只要依然在，还可以大力出奇迹。那么大家就说，那我们就接着老老实实地买他们家显卡。</p>



<p>而且，这种倍速一定是十倍、百倍、千倍这样往上涨，为什么呢？因为如果你说，我英伟达下一代的GPU就比现在快20%，那大家就不更新了。或者说，我干脆去买AMD吧，AMD的比你这还便宜点，算力也没有那么差，只是这个过程稍微麻烦一点——我需要重新去适配AMD的算力卡。大家要注意，因为做这行的人很少，这些人很聪明，对他们来说，适配一个新的算力卡，难度并没有那么高。</p>



<p>刚才我为什么专门讲了苹果的生态链、谷歌的生态链、微软的生态链？因为它们里面有很多低端开发者，对他们这些低端开发者来说，技术迁移的门槛是很高的。你让他重新换一下，比如说，“你原来做安卓的，现在去给我做iOS开发去”，他真不会。甚至说，他学会了以后还能涨些薪水。但是对于英伟达来说，如果他没有办法快速地让算力十倍、百倍、千倍地涨上去，那么大家就会渐渐背离他，对他的忠诚度是相对比较低的。</p>



<p>有可能造成英伟达崩塌的原因有三个，咱们最后总结一下：</p>



<p>第一个就是摩尔定律失效了，缩放定律已经没效果了。大家发现，上更多的数据，配更大的模型，训练完了以后效果提升了。一旦到这样的情况，就不会有人再疯狂地去买他的新显卡了。</p>



<ol class="wp-block-list"></ol>



<p>第二个中心转移了。突然间，又一个特别赚钱的应用方向爆发起来。大家注意，现在为什么大家都在选择这个？因为“缩放法则”——谁都用不好。大家只能去比谁的模型做得更好，然后去跑这个，跑那个。但是一旦发现，这个模型在做一些特定应用时，效果好得一塌糊涂，而且极其赚钱，那么这个时候，就不会有那么多人继续投入资金去做新模型的研发了。他们可能觉得，现在的模型就够了。这相当于什么呢？就是说，虽然“缩放法则”仍然有效，并没有崩塌，但是没有人愿意再往上堆成本了。因为，尽管“缩放法则”有效，但增加更多的算例、更多的数据，那都是钱。一旦出现特别赚钱的领域，即使“缩放法则”依然有效，增长也会停止。</p>



<p>第三个因素是巨头合作，突破并扩大了垄断。现在，大家离不开英伟达的原因，就在于它推进的这套扩大——可以称之为通用计算方法，具体的名称我不再详查，它是不开源的，而且英伟达拥有专利。因此，大家都在这个基础上进行了应用开发和大模型的训练。之后，想要更换这个技术，就会有一个成本。这个成本，我们要反复讲，不高也不低，为什么会这样呢？</p>



<p>肯定换过去以后会有些兼容性的问题。但是呢，因为你后边真正使用你的H100也好，Blackware也好，都是些什么人？特斯拉、苹果、谷歌、微软、亚马逊——他们可以花最贵的钱，雇最好的工程师，说来咱们今天去改一遍就完事了。这个都是有可能的。但是，这个临界点在什么地方？临界点就是，如果涨不上去了，那咱就改；或者说突然有人说，“我愿意砸一笔更大的钱进来，咱就改。”为什么？詹奥特曼说，“咱们砸一笔大钱啊，1,000亿美金，或者说1,000万块H100算力的这个GPU，我们统一搞一次，做星际之门去。”这个对于英伟达来说，都是比较大的威胁。就是这三个威胁。</p>



<p>英伟达呢，也算是我们现在的一个传奇故事。我相信在整个的AICC大时代里头，我们还可以不断地看到它的故事继续。好啊，今天我们要讲的故事就到这里。感谢大家收听，请帮忙点赞点小铃铛，参加Disco讨论群，也欢迎有兴趣有能力的朋友加入我们的付费频道，再见！</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
