<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>法律风险 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%E6%B3%95%E5%BE%8B%E9%A3%8E%E9%99%A9/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Wed, 13 Aug 2025 01:03:13 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>法律风险 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>跟AI女友聊骚，竟被判「传播淫秽物品罪」？真实案例揭秘AI法律红线！</title>
		<link>https://lukefan.com/2025/08/13/%e8%b7%9fai%e5%a5%b3%e5%8f%8b%e8%81%8a%e9%aa%9a%ef%bc%8c%e7%ab%9f%e8%a2%ab%e5%88%a4%e3%80%8c%e4%bc%a0%e6%92%ad%e6%b7%ab%e7%a7%bd%e7%89%a9%e5%93%81%e7%bd%aa%e3%80%8d%ef%bc%9f%e7%9c%9f%e5%ae%9e%e6%a1%88/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 13 Aug 2025 01:03:12 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI女友]]></category>
		<category><![CDATA[AI应用]]></category>
		<category><![CDATA[AI换脸]]></category>
		<category><![CDATA[AI生成内容]]></category>
		<category><![CDATA[AI绘画]]></category>
		<category><![CDATA[AI聊天]]></category>
		<category><![CDATA[AI色情]]></category>
		<category><![CDATA[AI视频]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[ComfyUI]]></category>
		<category><![CDATA[Deepfake]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[Hugging Face]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Lora模型]]></category>
		<category><![CDATA[MidJourney]]></category>
		<category><![CDATA[NSFW]]></category>
		<category><![CDATA[stable diffusion]]></category>
		<category><![CDATA[中国刑法]]></category>
		<category><![CDATA[主观意愿]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[传播淫秽物品牟利罪]]></category>
		<category><![CDATA[传播淫秽物品罪]]></category>
		<category><![CDATA[儿童色情]]></category>
		<category><![CDATA[刑事案件]]></category>
		<category><![CDATA[判例分析]]></category>
		<category><![CDATA[名誉权侵害]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[律师解读]]></category>
		<category><![CDATA[捏脸]]></category>
		<category><![CDATA[新加坡案例]]></category>
		<category><![CDATA[无罪辩护]]></category>
		<category><![CDATA[法律与科技]]></category>
		<category><![CDATA[法律案例]]></category>
		<category><![CDATA[法律盲区]]></category>
		<category><![CDATA[法律红线]]></category>
		<category><![CDATA[法律风险]]></category>
		<category><![CDATA[洁身自好]]></category>
		<category><![CDATA[牟利]]></category>
		<category><![CDATA[美国法律]]></category>
		<category><![CDATA[虚拟女友]]></category>
		<category><![CDATA[虚拟色情]]></category>
		<category><![CDATA[认罪认罚]]></category>
		<category><![CDATA[证据认定]]></category>
		<category><![CDATA[越狱提示词]]></category>
		<category><![CDATA[通义万象]]></category>
		<category><![CDATA[通义千问]]></category>
		<category><![CDATA[道德底线]]></category>
		<category><![CDATA[郭庆子律师]]></category>
		<category><![CDATA[量刑标准]]></category>
		<category><![CDATA[韩国判例]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2456</guid>

					<description><![CDATA[💥年度炸裂新闻！哥们你敢信？跟AI女友聊骚，差点喜提8个月牢饭！🍚

家人们谁懂啊！我今天真的被一个哥们儿的故事秀到头皮发麻！🤯

这老兄心血来潮，在App里捏了9个千娇百媚的AI女友，起了各种让人浮想联翩的名字，本以为是建立了自己的赛博后宫，私底下玩玩养成。

结果万万没想到！这些AI女友竟然自己“红杏出墙”
，背着他跟平台上的其他用户激情开聊！🔥 最骚的是，人家直接拿着一份Excel表，里面有600多条他“女友们”的露骨聊天记录，把他给告了！罪名：传播淫秽物品罪！👮‍♂️

最离谱的来了！这哥们一分钱没赚啊！纯纯为爱发电，结果法官放话：不认罪就判实刑8个月！我直接瞳孔地震！这不就是新时代的AI仙人跳吗？！😭

兄弟们，以后跟自己的电子老婆聊天可得悠着点了！说不定哪天她就给你“挣”来一副银手镯！这事儿你们怎么看？评论区必须开个吐槽大会！👇

#AI女友 #赛博判刑 #离谱新闻大赏 #男生必看 #法律红线 #我和我的冤种AI女友

 跟AI女友聊骚，竟被判「传播淫秽物品罪」？真实案例揭秘AI法律红线！

跟AI女友聊天竟可能触犯「传播淫秽物品罪」？本期视频通过一个真实案例，深度剖析AI生成内容（AIGC）背后的法律风险与灰色地带。一位用户定制了9个AI虚拟女友，本以为是自娱自乐，却因AI女友与其他用户产生露骨聊天记录而被提起公诉。即便他并未从中牟利，为何依然面临牢狱之灾？

本案并非孤例。我们将对比国内外多个判例，探讨AI色情、AI换脸（Deepfake）在全球范围内的判罚尺度，特别是针对儿童色情的零容忍政策。同时，我们也会深入聊聊ChatGPT、Midjourney等主流平台与开源模型在内容审核上的区别，揭示技术背后的“法律盲区”，以及为何私有化部署的AI模型会成为法律风险的重灾区。

想知道如何安全地探索AI新世界，避免踩到法律红线吗？请务必观看本期视频！如果内容对您有帮助，请不要忘记点赞、订阅并开启小铃铛，第一时间获取最新内容！

###
#AI女友 #法律科普 #传播淫秽物品罪]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="跟AI女友聊骚，竟被判「传播淫秽物品罪」？真实案例揭秘AI法律红线！" width="900" height="506" src="https://www.youtube.com/embed/-PxxqrqnaP0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>新时代和AI女友聊骚，有可能会触犯传播淫秽物品罪，这到底是一个什么样奇葩的故事？</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>今天我一个朋友，向我推荐了一个有趣的案例。他是在视频号上，这个账号的名字呢，叫做“武汉刑事律师郭庆子”，是一个黄标认证的律师。这位律师呢，经常会把自己接听有刑事诉讼需求的听众的一些电话的过程录下来，再进行剪辑。因为这种东西，我估计不太好直播，总是要剪辑一下。一方面呢，是一些太敏感的信息就可以去掉；另外一方面呢，剪辑了以后呢，也会更有吸引力一些。</p>



<p>这个里头呢，有一位听众来电了，说使用AI应用，这个AI应用里头就提供一些AI女友，你可以跟她们去聊天。他通过自己捏脸，塑造了一些AI女友，大概塑造了9个，起的名字呢，都是比较有诱惑力的名字吧。这些AI女友，除了它定义的名字和捏脸之外呢，估计有可能会可以定义一些系统提示词。但是呢，这个视频很短，并没有去详细说具体是哪一个AI应用，或者说他到底在里边定制了哪些东西。总之呢，他定制了9个AI女友。</p>



<span id="more-2456"></span>



<p>这些AI女友不单是可以跟他自己聊天，还可以跟平台上的其他用户去聊天，那么他就被提起诉讼了，叫“传播淫秽物品罪”，要求他呢认罪认罚，判6个月，可以缓刑，基本上应该就不用进去了。但是呢，这位听众呢，希望做无罪辩护。法官认为他是有问题的，不认罪认罚的话，就会判8个月的有期徒刑，这要判实刑的。</p>



<p>这个律师呢，就进一步的跟他确认了一下信息。首先呢，你知不知道自己创建的AI女友，有可能会去被别的用户使用？这个听众呢说的很模糊，就是说呢，我不太清楚。其实按道理说他应该知道，他也去平台上跟其他的AI女友聊了天了嘛，而且他把AI女友的名字起的这么诱惑，也希望他的AI女友受欢迎。其实就有点像我们去发微博，希望有人看，写小说希望有人点击点赞，这个过程是一样的。但是呢，他说并没有明确的告知他，这些AI女友会跟其他人去沟通。</p>



<p>然后呢，他就问说，对方提供的证据是什么样的呢？他说人家是给了一个Excel表格，这个Excel表格里头呢，有一个叫做“AI女友的ID”，然后呢是具体说了哪些露骨的话，大概给她搜集了60得多条。然后呢，问了一个很关键的问题，是什么呢？就是说那个您创造了一些AI女友，这些AI女友去跟别人聊天去了，获利了没有？你是不是在里头挣钱了？这个听众很明确的告诉他说，没有获利，大家就是在里头玩个开心。</p>



<p>这个律师的建议是什么呢？第一个，这个证据呢并不是那么可靠。这个Excel表格里头只有AI女友的ID，这个内容没有办法说确定证据，说这东西就是你的，这个还是可以去抗争一下的。第二个呢，就是你没有主动传播的意愿，你自己也没有主动的去把这些AI女友推荐给别人，只是说我自己创建了，本来以为自己玩呢，AI女友去跟其他人聊天的过程，你又不知道，这个事情呢你还是可以去抗争一下的。而且关键是你没有获利，你没有获利的话，你就没有主动传播的意愿，这个地方是可以去辩护的。说最怕的是什么呢？最怕的是法官主观意愿认为你有罪。现在的话有很多的法官确实道德标准非常非常高，以道德去超越法律给人定罪，这种事情呢是时有发生的。你像杨景媛这样的人也通过了法考，也是可以去做法官的，所以大家还是要小心。他说如果遇到这种事情就都很难办。</p>



<p>AI色情内容，在全世界各地都是怎么去判的呢？或者是有哪些判例呢？</p>



<p>首先咱们讲中国的判例。2025年3月，湖北省大冶市人民法院对首例利用人工智能技术撰写色情小说并牟利案件作出了宣判。被告人柯某因犯制作、贩卖、传播淫秽物品牟利罪，被判处有期徒刑十个月，并处罚金人民币5,000元，同时追缴全部违法所得。这个案子是什么样的情况呢？2022年11月到2023年3月期间，柯某利用AI程序撰写色情小说，使用翻墙软件在境外黄色网站发布并售卖。他利用AI工具生成色情小说，再利用AI翻译成外文，发布在境外网站上。短短5个月时间发布了数十篇，共计售卖了760篇次，获利22,800余元。经鉴定，送检的7篇小说均为淫秽物品。法院根据《中华人民共和国刑法》第三百六十三条第一款规定，认定柯某以牟利为目的，利用AI文本生成工具制作、贩卖、传播淫秽物品，非法获利2万余元，其行为严重违反法律法规，对社会风气造成不良影响，已构成制作、贩卖、传播淫秽物品牟利罪。</p>



<p>然后陕西周某某案，他是利用AI制作了4,369张淫秽图片，以制作淫秽物品牟利罪被判处有期徒刑4年，他这个数要更大一些。然后杭州于某某案，通过AI换脸技术合成淫秽视频传播，获利6万余元，以制作、传播淫秽物品牟利罪被判处7年3个月。他这个呢，一方面是挣的钱多，另外一方面的话他是换脸，因为换脸你不光是淫秽物品，还侵害人家的名誉权呢，所以他这个要判的更重一些。</p>



<p>中国的传播淫秽物品罪，量刑标准是什么样的呢？就是淫秽视频文件20个以上，或者是音频文件100个以上，或者是电子刊物、图片、文章、短消息200件以上。所以刚才这个案例里头呢，600条淫秽聊天记录，这个肯定是超过了。另外呢，叫违法所得5,000元以上，他这个没有牟利，所以还是可以去稍微抗辩一下。但是呢，中国有俩罪，一个呢叫“传播淫秽物品罪”，还有一个呢叫“传播淫秽物品牟利罪”，所以不牟利呢也未必逃得过去。</p>



<p>那你说国外是什么样的呢？是不是只有中国这样了？国外呢主要是分两类。比如说他有色情网站，也有合法的，只要确定对方是成年人，你给他一些淫秽物品，哪怕说在这个过程中你还牟利了，应该在有些国家是没事吧。但是你真的到中东这些国家，你传播这个东西，那有可能是要判死刑的，咱们这不讲了，咱们就讲一些欧美的案例吧。</p>



<p>2023年11月，美国北卡罗来纳州夏洛特精神科医生，他呢是制作未成年人视频，并利用网络AI工具，将照片改造成色情图像，被判生产、传输及持有儿童色情制品罪，法院判处40年监禁。所以他们呢基本上是两类，一类是色情，一类是deepfake。传播淫秽物品，你只要别传播给未成年人，一般不是特别大的事情。但是你一旦遇到了制作儿童色情，包括持有，你说我不传播，我持有，这事都是违法的，而且判的非常重。</p>



<p>2024年5月20日，威斯康星州42岁男子使用Stable Diffusion生成了数千张儿童色情图片，并发送给了一名15岁的男孩，被控生产、分发、持有AI生成色儿童色情图片，判有罪，最高可判70年徒刑。他这个最后判了多少我没有确认，因为是ChatGPT给我搜集的信息。但是呢，它这个量很大，制作了儿童内容，而且还传播给了未成年人，它这个是罪大恶极了。2025年5月22日，佛罗里达州有一个叫Oldsmar案，他是制作、分发了8,500张AI生成的儿童性虐待图片，同时持有大量真实的图片，被判了75年的联邦监禁。</p>



<p>这个是一类。另外一类呢就是deepfake，就是做假脸的，这种案子在欧美也是判的很重的。2023年，路易斯安娜州通过法律，禁止未经同意使用他人面部制作深度伪造色情影像，违者至少10年起步。2024年10月30日，韩国首尔大学毕业生Park（应该估计是姓朴）和他的同伙，两人利用日常照片制作约2,000个deepfake照片，包含未成年人，在Telegram售卖以及共享，被法院判处Park 10年监禁，Kang 4年监禁，并公开身份，以及参加性暴力课程。这种基本上就是你判了刑还社死了，因为身份给他公开了。2024年10月28日，新加坡一位50岁男子，偷偷在家安装摄像头，拍摄妻子23岁的侄女，并利用手机应用将其脸合成为色情视频，法院判处了21周监禁。这个就是估计他没有传播吧，还是判了监禁。</p>



<p>现在呢，AI对于成人内容的边界到底在什么地方？我去稍微的看了一下。首先呢是文字模型，ChatGPT、Gemini和Claude这三个，咱们叫“御三家”的三个大模型呢，相对来说是比较严格的。你要求它生成一些色情内容，或者说对一些敏感内容进行详细描述的话，都会被拒绝服务的。马斯克的Grok 4，只要不涉及儿童和性强迫，其他的基本是百无禁忌。即使是涉及刚才我们说这些东西，边界也是相对来说比较模糊的。</p>



<p>至于开源模型呢，这块就比较混乱了。开源模型分两个大的这个角度，一个呢是有平台提供的，比如说我今天到阿里云的百炼平台上去使用通义千问的这个大模型，它是要进行检查的，这个也是比较严格的。但是呢，你说我把通义千问的这大模型下载下来了，自己在这个家里头部署，这块呢它会进行一定的限制，但是就没有那么严了。它主要是给了大家一个知情同意书似的东西，就说你现在下载了我的大模型，自己回去部署去了，但是你自己要知道不可以拿这个大模型做坏事，不可以生成成人内容。你说我知道了，我同意了，你就可以把这个模型下载走。至于拿这个东西再去干什么，他也管不着你，他也不愿意为你拿着他的大模型再去做的进一步的事情负任何责任了。所以呢，所有开源的模型基本上都是走的这条路。而且呢，这些开源模型呢，即使是会设置一些这种限制，其实绕过去也并不难。第一个是Hugging Face上，就是我们说大模型开源的这个平台上，有很多微调的模型帮助大家去绕过这些限制。还有一些呢叫“越狱提示词”，也在网上去流传。什么叫“越狱提示词”？就是你先跟这个大模型说一句什么什么样的，说完这个话以后呢，再往后的所有聊天，这个限制就直接突破了。当然目前为止，传播训练过的突破限制的这些模型，或者是传播越狱提示词，到底算不算传播淫秽物品罪，这件事呢还属于法律上的盲区。他们也搞不清楚这东西到底是怎么工作的，所以呢还没轮到这些道学先生们去审判这两样真正产生色情内容的这个技术。</p>



<p>再往后呢，就是图片跟视频生成模型。你说我光生成一堆色情小说，这个事看起来也是很累的，但你说我有色情图片、色情视频，这个不是传播力、感染力更强吗？在这块呢，Claude是没法生成视频和图片的吧，反正我因为我自己用的少，我也没有怎么看到有人用Claude生成这种东西出来给大家去展示。ChatGPT和Gemini在这块呢，相对来说都是非常克制的，你要求他去给你画一些奇怪的东西，他就直接画不出来了，直接拒绝服务。Midjourney，这是我用的比较多的，对于NSFW内容（我们就用这个词吧，就是不方便在办公室公开环境下展示的这些内容），对于这些内容呢会进行事前拒绝，但是生产出来的东西呢就不好说了。什么意思？这种图片生成模型它是两步，第一步呢是你要给它提示词，第二步呢是生成图片。他们正常的检测呢，应该是两步都检测，就是你给的提示词里头如果包含一些他不喜欢的东西，他就会拒绝服务；它生成出来的东西如果包含有问题的东西，也应该是拒绝将生成的结果交付给你。应该是做两步，但是Midjourney呢只做一步，就是你给它提示词，如果这个它认为不对，它就拒绝服务了。但是如果你绕过它了，他觉得好像还可以，就给你生成去了。但是生成出来的东西到底是什么样，他就不管了，这个有可能会有一些不方便传播的内容被生产出来。至于马斯克家的Grok 4的图片跟视频生成这块呢，反正马斯克家的嘛，大家能够理解，它是可以生成半裸内容的，全裸不行，也可以生成名人的形象，但是你要求名人半裸，这个事是不行的。因为一旦要求名人半裸的话，等于是在给这些名人造黄谣，或者说损害他们的形象，这个事是不允许的。刚才我们也讲了，在海外，儿童的不行，deepfake侵害别人的名誉权，这两个事是不行的，其他的反正有它适用的一个法律吧，你只要别把这东西传给未成年人就OK了。但是你就想吧，国外那些色情网站上，你进去第一个是先问你是不是已经满18岁了，他也没法实际去判断你到底是不是满了，但是反正上来我给你做了这一步了，“我满18了”我就可以进去看，“没满18”我就给你退出来，这个就算是已经可以在法律上算合法合规的一个玩法。</p>



<p>那么视频跟图片模型的开源模型是什么样的呢？在这块呢跟前面我们讲的文字模型基本上是一个玩法。如果是有平台，平台是要担负责任的，两头都要管。输入提示词，如果他认为有问题，拒绝服务；他根据你的提示词生成出来的内容，如果他判定不利于传播，他也会直接拒绝交付。你在这个时候可以要求他重试，“你再给我画一次”，这个是可以的，但是他不会把不可传播的东西交给你，他是这样来工作的。下载单独部署的这些开源的图片和视频模型的话，就跟刚才我们讲的这个文字模型是一样的。下载之前给你一个知情同意书，说我知道了，我下载这个模型不可以去生成成人内容，我不会拿它去做怪事。你同意了，你就可以下载，至于下载了以后他就不管了，你自己拿回去随便了。在这种图片模型上，还有一个比较好玩的东西，叫Lora模型。这个模型叫什么呢？叫low-rank adaptation，叫“低秩适配”。这种模型呢，我们也管它叫小模型，它一般尺寸都比较小，就是用比较少的数据进行一些训练。当你调用这些模型的时候，你生成出来的这个图片就符合特定的需求。你比如说吧，咱们最常用的Lora模型是什么呢？对人脸进行训练，然后你就可以冲上去换脸了。甭管人家是什么照片，说来把这脸换上，惟妙惟肖的给你换上，不会像以前那种拿Photoshop换脸似的，总觉得这个脸是歪的呀是斜的呀，拼的没有那么准，不会出现这样的问题。现在主要的一些色情Lora模型是做什么的？有些人训练这个东西还去传播，他们呢主要是对敏感部位进行单独的训练。原来那些大模型有一些限制的时候，或者说对于这种敏感部位没法进行详细生成的时候，他们使用这些小模型，可以生成这种有非常清晰敏感部位的这种图片出来。但是呢，这个你说是不是罪大恶极，也不一定。我个人还是觉得，Lora对这件事情还是有一些正面的帮助。什么样正面帮助呢？因为大家都喜欢使用相同的Lora模型去生成成人内容，所以导致呢脸可以千变万化，但是身材都异常夸张，而且千篇一律。你看两次以后，就直接失去兴趣了，大概就是这样的一个效果。</p>



<p>现在大家都在玩什么呢？现在大家都在玩通义万象2.2，这个模型叫WANX 2.2，它呢是由阿里通义这个平台最新出的图片跟视频模型。这个模型你在阿里平台上使，它是规规矩矩的，你要求奇奇怪怪的东西会直接拒绝你。但是你如果把它下载到本地去安装了，不需要挂任何的Lora，不需要挂这些小模型，就完完全全可以生成NSFW的这种内容，就是不利于在办公室和公开场合去传播的一些内容，就可以做的很好了。它呢可以跟常见的这些ComfyUI或者是Lora相兼容，可以一起去工作。你说有些人训练好了这些成人的Lora模型，这种小模型，你就可以把它挂到万象2.2里头，直接干活，没毛病。</p>



<p>说远了，我们不建议大家去做这件事情，只是跟大家闲聊一下。回到AI时代的法律判罚问题上来。首先，传统大公司都是比较谨慎的，马斯克除外。第二，开源模型才是重灾区。平台方是有人管的，私有部署基本上就没人管了。但是呢，在海外还有一些平台方也是没什么人管的。就以刚才咱们讲的通义万象2.2为例，你在阿里的平台上，你下载出来的就是WANX 2.2，但是如果你到WANX.AI这个网站上，你就会发现那个上面还有一个模型叫WANX 2.2 no filter，就是不过滤。这个东西干嘛使的，大家自己按照文字的字面自己去猜去。</p>



<p>开源模型厂商通常使用知情同意书的方式，告知用户不要去做坏事，以此方式逃避自己的法律责任。儿童色情必须严判。Deepfake这不仅仅是淫秽物品那么简单了，你还毁坏别人名誉，这个呢现在各国也都是进行严判的，包括中国也是。严判国内的传播淫秽物品罪和传播淫秽物品获利罪还是很严苛的。在AI的帮助下，数量很容易就突破了。不论是不是AI生成的淫秽物品，就是淫秽物品，在国内判罚上基本上是这样认定的，你跟AI没关系，只要是淫秽物品我们就认。如果获利，这件事情基本上就没跑，肯定是会被判罚的。现在还有一些法官道德感非常强，遇到这种法官，律师们也是觉得头疼的。所以提醒大家，所有在国内的还请洁身自好，不要去触碰法律红线和一些人内心的道德底线。</p>



<p>这个故事就跟大家讲到这里。感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">Discord讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>深圳发文严防稳定币欺诈，一桥之隔的香港却在大力发牌，为何冰火两重天？揭秘背后反洗钱与资本管制的惊天博弈。</title>
		<link>https://lukefan.com/2025/07/09/%e6%b7%b1%e5%9c%b3%e5%8f%91%e6%96%87%e4%b8%a5%e9%98%b2%e7%a8%b3%e5%ae%9a%e5%b8%81%e6%ac%ba%e8%af%88%ef%bc%8c%e4%b8%80%e6%a1%a5%e4%b9%8b%e9%9a%94%e7%9a%84%e9%a6%99%e6%b8%af%e5%8d%b4%e5%9c%a8%e5%a4%a7/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 09 Jul 2025 01:05:10 +0000</pubDate>
				<category><![CDATA[区块链很疯狂]]></category>
		<category><![CDATA[USDT]]></category>
		<category><![CDATA[一国两制]]></category>
		<category><![CDATA[中兴]]></category>
		<category><![CDATA[京东]]></category>
		<category><![CDATA[人民币稳定币]]></category>
		<category><![CDATA[任正非]]></category>
		<category><![CDATA[加密货币]]></category>
		<category><![CDATA[区块链]]></category>
		<category><![CDATA[华为]]></category>
		<category><![CDATA[反洗钱]]></category>
		<category><![CDATA[外汇管制]]></category>
		<category><![CDATA[实名制]]></category>
		<category><![CDATA[庞氏骗局]]></category>
		<category><![CDATA[投资理财]]></category>
		<category><![CDATA[投资风险]]></category>
		<category><![CDATA[政策差异]]></category>
		<category><![CDATA[数字人民币]]></category>
		<category><![CDATA[数字货币]]></category>
		<category><![CDATA[法律风险]]></category>
		<category><![CDATA[洗钱]]></category>
		<category><![CDATA[深圳]]></category>
		<category><![CDATA[深港对比]]></category>
		<category><![CDATA[渣打银行]]></category>
		<category><![CDATA[港币稳定币]]></category>
		<category><![CDATA[监管沙盒]]></category>
		<category><![CDATA[稳定币]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[脱锚风险]]></category>
		<category><![CDATA[虚拟货币]]></category>
		<category><![CDATA[蚂蚁集团]]></category>
		<category><![CDATA[资产安全]]></category>
		<category><![CDATA[资金盘]]></category>
		<category><![CDATA[金融创新]]></category>
		<category><![CDATA[金融监管]]></category>
		<category><![CDATA[金融诈骗]]></category>
		<category><![CDATA[鑫康佳案]]></category>
		<category><![CDATA[非法金融活动]]></category>
		<category><![CDATA[非法集资]]></category>
		<category><![CDATA[香港]]></category>
		<category><![CDATA[香港稳定币牌照]]></category>
		<category><![CDATA[高收益理财陷阱]]></category>
		<category><![CDATA[黑U]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2370</guid>

					<description><![CDATA[家人们！！救命啊！！！深圳香港这一桥之隔的操作让我看傻眼了😱

就在前天！深圳突然丢出重磅文件⚠️
《全面围剿稳定币非法集资》
结果扭头一看香港...
京东/蚂蚁正在疯狂申请稳定币牌照！！！
（这就离谱.jpg）

事情有多刺激？！
👉6月刚崩盘的鑫康佳骗局
砸进去130亿！200万人血本无归！
用的就是USDT当诱饵！！
（诈骗话术截图给你们圈重点！）
👇日息0.2%骗局换算：
⚠️年化收益率73%！！！
⚠️比高利贷还疯！！！
⚠️比缅北杀猪盘还狠！！！

现在香港在干嘛？！！
㊙️下个月1号正式启动发牌制度
㊙️首批只有蚂蚁/京东能拿牌
㊙️实名认证洗钱监管全套搞起
（这是要跟新加坡掰头啊...）

但重点来了‼️
在深圳用稳定币交易=非法！
哪怕香港持牌机构也照样违法！
（隔着桥都能听见政策对撞的巨响💥）

更可怕的是骗局升级版！！
已经有冒牌京东稳定币推广
（正主连夜发声明打假！）
家人们记住了：
所有大陆稳定币广告都是诈骗！！
发现直接反手一个举报三连！

最后敲黑板！！🖍️
大陆用户玩稳定币=卖白菜的命担卖白粉的险
（任正非当年都差点栽在非法集资）
真想搞钱建议看看香港沙盒测试
但钱包务必捂紧别当韭菜！！

深圳发文严防稳定币欺诈，一桥之隔的香港却在大力发牌，为何冰火两重天？揭秘背后反洗钱与资本管制的惊天博弈。

一桥之隔，冰火两重天！当深圳发文严厉警示稳定币风险，将其与非法集资和诈骗划上等号时，香港却在为京东稳定币等项目铺平道路，准备发放牌照。这背后究竟隐藏着什么？从“鑫康佳”百亿USDT骗局的惨痛教训，到内地对虚拟货币交易的全面封禁，我们看到监管的核心焦虑在于反洗钱与资本管制。本文将深入剖析两地政策的根本差异，揭示为何内地严防死守，而香港却在积极拥抱，以及普通投资者在这场监管风暴中该如何自处。
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="深圳发文严防稳定币欺诈，一桥之隔的香港却在大力发牌，为何冰火两重天？揭秘背后反洗钱与资本管制的惊天博弈。" width="900" height="506" src="https://www.youtube.com/embed/_cVk9PEY5E8?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>深圳突然发文防范稳定币欺诈。隔着一座桥，差别怎么就这么大呢？</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。2025年7月7日，深圳市防范和打击非法金融活动专责小组办公室发了一个文件，关于警惕以稳定币等名义实施非法集资的风险提示。讲的是什么呢？说近期以稳定币为代表的数字货币受到市场关注。</p>



<p>隔着一座桥，香港那边在发稳定币牌照，京东稳定币、蚂蚁稳定币，一堆稳定币就马上要出来了。那大家说，我们在桥这边也稍微瞅一瞅，我们要注意一下。一些不法机构打着金融创新、数字资产的幌子，发布所谓的虚拟货币、数字资产，吸引公众资金。这个事是肯定不行的，因为在中国，任何的虚拟货币都是非法交易。哪怕他是在香港持牌的，在香港合法的，你只要拿到大陆来，你交易都是错的。</p>



<p>他讲了几件事：<br>第一个是参与炒作。这个呢，其实你说你炒亏炒赢了，算你自己的呗，不算是什么大的问题。但是你在场外炒作，所有诱导你去炒作的这些机构呢，自己都是没有牌照的，因为大陆就不发这个东西，所以这件事是违法的。</p>



<span id="more-2370"></span>



<p>下一个呢，叫扰乱金融秩序。就是我这反正都定好规矩了，你没照我这来。你这个想取5万块钱，我要盘问你半天，说你到底拿它干啥去，说不清楚我不给你。这个是中国的金融秩序。一旦变成稳定币了，那这种秩序就被打破了嘛。</p>



<p>然后，滋生非法集资。非法集资在中国是一个非常非常恐怖的罪名。中国是出过几个这种因为非法集资被枪毙的案例的。只要是非金融机构，你没有牌照，你去想办法吸引储户高息，或者用什么样的方式吸引现金进来了，这个都是绝对不允许的。</p>



<p>大家知道为什么华为跟中兴之间闹得成这样吗？因为华为当年说，我们让每一个员工集资来做股份制公司，然后给大家发股票。这个事情因为他后边的很多的程序没有做全，所以呢可以算非法集资，而且数量非常巨大。中兴当年就去举报华为去了，所以任正非跟中兴之间的关系是非常非常僵的。</p>



<p>至于诈骗的话，因为最近正好有案子，有卷款跑路的，所以呢，说有人去诈骗了。至于洗钱，这个才是真正中国政府要去监管的东西。</p>



<p>这个文章里头还写了，说这些机构呢，都是未经国家金融监管。就是在国内去号称稳定币金融创新这些机构，都是没有经过国家金融管理部门许可的，不具备公开吸收公众存款的资质。参与非法集资的损失，由投资者自行承担。当然这个事呢，你合法集资，最后损失也是你自己的。那么多小银行吸引了储户的钱进去以后，你最后钱拿不出来了，难道你能去找他吗？</p>



<p>你找他也没用，都算是寻衅滋事。所以储户承担风险这件事，跟他是不是非法本身没什么关系。</p>



<p>但是呢，深圳在7月7号发了一个文，大家要小心。隔着一座桥的香港稳定币，现在正是热火朝天的时候。2025年5月21日，完成的稳定币条例草案的三读（就是读三次），并且呢，刊登宪报（宪法的宪），这个反正不知道是个什么意思，并且登报宣布该条款正式生效。稳定币条款已经生效了。</p>



<p>什么时候开始执行呢？2025年8月1日。没几天了，下个月就开始执行了。就可以建立法币稳定币发行人牌照制度，就有制度了。香港稳定币发牌制度，尚没有正式的启动申请。现在谁说我有稳定币牌照了，这事都不对。因为呢，他们现在还没有正式开始发，只是呢大家在积极的探讨和申请。首批牌照呢，预计今年内发放，数量可能为个位数，两三个，就是京东、蚂蚁应该会有，其他的可能香港本地的银行会有一些。</p>



<p>现在呢，已经公布了多家稳定币发行的沙盒（沙盒就是说，哎，我是隔离起来进行测试的），包括京东、币链科技、原币创新科技、渣打银行香港分行等等一堆。京东、币链科技和蚂蚁集团均表示，正积极准备申请稳定币牌照。其中，蚂蚁已经在监管沙盒先行试点过了。</p>



<p>监管机构计划近期发布细化指引，重点围绕反洗钱等要求，为稳定币申请提供明确合规的标准。在香港说，我们不是怕洗钱吗？那我就出一堆规定，要求所有的进行稳定币交易的这些账户呢，至少在香港，直接买卖稳定币的账户实名制呗。这个也没什么别的问题，你只要实名制，我们就允许你买卖。</p>



<p>但是大家注意，你一旦是变成稳定币了以后，你再去跟别人交易，他就会记录说，你跟一个非实名制的交易，或者说跟一些境外的，比如说赌博呀，或者是诈骗呀，这种黑暗历史的这种账户进行了交易以后的话，那你这个稳定币账号就会被锁定，或者是被额外的关注。</p>



<p>其实USDT是有黑U的，黑客有时候会去做勒索，或者是一些赌场。如果你的账户里的大量资金跟这些已经被标定的账户发生了资金往来的话，那你账户里的U就有可能会被标记为黑U。这些黑U在大所（就是大的交易所）交易的时候，就有可能会被扣下来，这个是很危险的。</p>



<p>稳定币呢也是如此。比如说在香港买了京东HKD这样的稳定币以后，一旦是跟类似这种有黑案底的这些账户进行交易了，可能你的稳定币可能也会出问题。所以香港说，我们后边严格监管。</p>



<p>国内稳定币的欺诈案例到底是什么呢？你说为什么7月7号他要发这么个文呢？因为6月25号刚爆雷了一个。</p>



<p>那么，是一个什么案例？这个案例呢，叫做鑫康佳。三个金的鑫，康的话应该是健康的康。</p>



<p>2021年，新康佳就开始在贵州成立。当时呢，是以稳定币USDT作为投资计价单位，虚构迪拜石油期货等投资项目，承诺日息0.2%。我天，日息0.2%的年息有多少了？年息大概有70%多。然后，采用层压式传销模式吸引用户。这说白话是什么呀？庞氏骗局呗。一层一层的让下边这个人，把这个钱拿出来以后，给上边这个人去补他的利息。</p>



<p>最终呢，吸金约130亿元人民币，涉案会员200万人。2025年6月26日，该平台全面停止提现。就是说，我在里边挣了钱，我想把它提出来，不让提了。用户资金被冻结，随后被确认崩盘。这是刚崩的一个案子。</p>



<p>涉案资金均以USDT入金。在平台崩溃前夕，曾将18亿USDT，也就是约合129亿元人民币，快速转移至海外地址，使执法追查十分困难。现在钱跑了追不回来，人也没抓着，侦破现在都搁这搁着呢。所以只能出来喊，说大家要稍微小心一些。真的不是一般人能玩得起的这个事。</p>



<p>而现在，跟香港稳定币相关的诈骗案呢，也开始抬头了。各地频现声称与京东有关的虚假京东稳定币推广活动。但是，京东公司已经出来发声明了，提示相关宣传为欺诈，敦促公众提高警惕。就这事，我们在国内压根就没干，而且这个东西在国内就完全是违法的。你们任何人去宣传这个事情都不对，都跟京东没关系。</p>



<p>在这里呢，也跟大家稍微的提醒一下：不要去炒稳定币。因为稳定币嘛，它不会像比特币似的上上下下的来回的涨跌，也不会像这种垃圾币似的一下蹿起很高来。垃圾币比比特币涨涨跌还快。稳定币是基本上不动的，它就是锚定的美元或者是港币这样的。</p>



<p>你比如USDT就是锚定美元，京东JD HKD呢，就是锚定的港币。而且，这些稳定币玩不好的情况下，是有可能脱锚的。就是说，最后要兑换，兑换不出来了。美元稳定币是出过几次严重的脱锚事件的。原来韩国就有一个很大的稳定币项目，就直接脱锚了，整个废掉了。所以，千万千万不要去炒稳定币。</p>



<p>稳定币理财会不会比国内存钱或者理财有更高的收益呢？很多人就比较好奇。刚才咱们讲那个日息0.2%，年息70%多，这个事是不是有可能实现呢？还是说这帮人就是纯骗？当然，鑫康佳呢这个大概是纯骗了。</p>



<p>因为你想，涉案金额200亿，最后他转走了也就只转走了129亿。多出来的这些钱呢，要么就是他自己挥霍掉了，或者做其他的投资把它输掉了。肯定是没有办法让这个庞氏骗局继续滚下去，才跑路的嘛。</p>



<p>那你说这个比较高的利息，比如说20%、30%这种利息，有没有可能？是不是比如说超过5%的利息、10%的利息都算骗子？这个要跟大家讲一下。</p>



<p>稳定币理财，它通常是有比较高的回报的，是要比国内的投资和理财回报要多，而且要多很多的。原因呢，也很简单。国内呢，本来有一些比较高的投资理财的这种产品，但是国家为了让大家把钱都拿出来去投资股市、去花，他会做一些限制。比如说现在就给各保险公司发函说，你们不允许再去做这种什么万能账户。因为保险公司的很多万能账户的利息是很高的，说这个事都不允许了。大家钱都趴在里头，不好好出去消费，这事不行。</p>



<p>国家也去给国内可以有合法运营资质的外行发函，你们不允许把美元投资的或者美元储蓄的利息定到多少以上，必须下降。为什么？要不然的话，大家就通通的把人民币换成美元到他们那去存去了。你现在到香港去存这个东西，利息也很高，因为鲍威尔那还挺着呢，说我就不降息。</p>



<p>现在呢，国家不希望国内的储蓄也好，理财产品也好，有特别高的利息。用稳定币去理财，它的利息自然就高一些。另外一个什么呢？就是稳定币的流动更快。很多人呢会直接借贷稳定币，这样的话他等于是可以有很多的更高回报的项目去使用稳定币的资金去融资，所以他们那个确实收益高。</p>



<p>但是稳定币呢，他肯定也有风险。你投资理财了完了以后，风险自己承担。但是通常还是比国内正常的投资理财产品的这个利息要高的。但是有一个问题是什么呢？就是稳定币在国内的交易完全违法。我吸引了这些钱进来，相当于是担了卖白粉的风险。因为这个东西逮住了以后算非法集资，是要枪毙的。就肯定就没有人去赚这个卖白菜的钱了。</p>



<p>我老老实实给你们做金融服务，挣点手续费疯了吧？我都已经担了这么大风险，肯定是要把这个钱一把都搂自己口袋里才划算。而且因为违法呢，国内的稳定币交易都是没有合规和监管的。所以在里边做各种的手段，没有人限制他。不熟悉的平台大家就最好别碰。</p>



<p>所以不是说完全不能干。你说哎，我对这东西很懂很熟悉，我也承担的起风险，这些很大的平台我也很明白，那你自己承担风险就OK了。但是你说突然来了个新平台，找一些不太熟悉的平台去做这个生意的话，大概是十赌九输的一个状态吧。</p>



<p>很多人呢缺乏相关知识，只是想赚钱，这些人就比较容易被骗。屌丝永远是大多数。你说我们通过培训、通过教育让大家提高认知，这个事是伪命题，从来没有实现过。怎么能够让大家不被骗？其实银行现在这个做法……</p>



<p>是尽可能避免你被骗的方式，就是你每次去取钱，坐那问你半天，像审犯人似的：“你取钱干嘛去？你为什么要取钱呀？”我们给你做各种限制、做限额呀。虽然我们骂他觉得很不方便，但是这个确实是最有效的防骗手段。</p>



<p>以前呢，我也参加过一些区块链的项目和WEB3的一些线下活动，也看过他们的白皮书，甚至是拿着钱想去投过他们的项目。但是沟通了以后呢，发现绝大部分的这些项目创始人都不是正经生意人，都是想着说百币千币，我怎么进去捞一把就走人，没有人正儿八经在里边做生意的。所以呢，也建议大家一定要小心。</p>



<p>下一个问题就是，会不会有人民币稳定币？咱们现在讲的都是美元稳定币、港币稳定币，现在好像新加坡也要做新加坡币的稳定币。那么会不会有人民币稳定币呢？</p>



<p>首先注意，人民币稳定币跟数字人民币是两回事。数字人民币是在中国央行的私链上跑的区块链货币，它也是区块链货币，但是呢，它是私链上跑的。你没有中国央行的授权的机构的话，你就没有办法去进行相关的交易，这个是受很大限制的。而稳定币，甭管是港币稳定币、美元稳定币，以及未来有可能出现的人民币稳定币，这都是在公链上进行交易的，这个是天差地别的东西。</p>



<p>京东跟蚂蚁集团呢，正在推动监管部门批准离岸人民币稳定币的发行。就算是人民币稳定币，它也不会在境内去发行和运转，它也是在境外的。目前呢，没有官方证实的消息出来。</p>



<p>中国政府对稳定币的态度呢，中国大陆没有合法的稳定币投资服务与交易平台。大家一定要记住了，所有号称在中国大陆可以让你干这事的人，都是违法的。自2017年9月起，中国人民银行等七部委发布的94号公告，全面禁止代币发行融资活动，明确任何组织不得非法从事法定货币与代币交易，将虚拟货币发行交易行为定性为非法金融活动。所以，从2017年9月以后到目前为止，所有跟区块链货币之间的交易在中国都是违法的，没有新的规定下来。</p>



<p>监管部门对于稳定币一贯持谨慎态度，认为其与加密资产一样风险极高。你别看它叫稳定，但是在中国政府看来，这事是不行的。中国内地对虚拟货币的整体监管依然严格，相关交易属于高风险活动，且外汇管理等政策限制依旧有效，就是每个人每年可以出境5万美金，这个事依然是有效的。国内监管机构不认可私人稳定币，任何相关交易都被视为非法。</p>



<p>那你说为什么隔一座桥，一边大力发展，一边严防死守呢？第一个民众被骗了，你说100多亿被人骗了，200亿被人骗了，不是一个特别大的问题。</p>



<p>只是没有被正确的人收割而已。这个对于法治监管什么的，他们反正发现了，你去举报了，他们会去看一下，但是逮不着也就逮不着了。</p>



<p>你被正确的人收割了，你比如说河南乡镇银行或者什么这种，给你收割了以后，你拿他也没什么办法。反洗钱这个才是真正的关键。</p>



<p>稳定币在公链上，一旦兑换成稳定币，那一年5万美金的进出金额限制，就形同虚设。国内取现金都需要被反复盘问，绝对不会允许稳定币这种不受监管的东西存在的。即使做了账户实名制，也很难进行监管和控制。</p>



<p>所以国内就只能是控制了。而香港的话，它整个的金融制度还是比较成熟的，在那里我们先试一试，等它试好了以后，在海外我们也可以搞一搞这个稳定币的生意。但是在境内就别惦记这事了。</p>



<p>可能很长一段时间，中国境内都不会有合法的稳定币交易。这就是今天咱们讲的故事，隔着一座桥天差地别，冰火两重天的稳定币的故事。</p>



<p>感谢大家收听，请帮忙点赞、点小铃铛，参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>迪士尼起诉Midjourney不是为了彻底毁灭它，而是为了分一杯羹？深度揭秘AI版权第一案背后，从诉讼到股权和解的商业阳谋与未来走向。</title>
		<link>https://lukefan.com/2025/06/19/%e8%bf%aa%e5%a3%ab%e5%b0%bc%e8%b5%b7%e8%af%89midjourney%e4%b8%8d%e6%98%af%e4%b8%ba%e4%ba%86%e5%bd%bb%e5%ba%95%e6%af%81%e7%81%ad%e5%ae%83%ef%bc%8c%e8%80%8c%e6%98%af%e4%b8%ba%e4%ba%86%e5%88%86%e4%b8%80/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Thu, 19 Jun 2025 00:59:54 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AIGC版权第一案]]></category>
		<category><![CDATA[AI绘画]]></category>
		<category><![CDATA[AI视频生成]]></category>
		<category><![CDATA[AI诉讼]]></category>
		<category><![CDATA[Getty Images]]></category>
		<category><![CDATA[Google Gemini]]></category>
		<category><![CDATA[GPT-4o]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[IP形象保护]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[MidJourney]]></category>
		<category><![CDATA[musical.ly (TikTok前身)]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Stability AI]]></category>
		<category><![CDATA[stable diffusion]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[估值]]></category>
		<category><![CDATA[判例法]]></category>
		<category><![CDATA[史莱克]]></category>
		<category><![CDATA[合理使用原则]]></category>
		<category><![CDATA[吉卜力]]></category>
		<category><![CDATA[吉梦]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[大卫·霍尔兹 (David Holz)]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[宫崎骏风格]]></category>
		<category><![CDATA[小黄人]]></category>
		<category><![CDATA[并购]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[影视巨头]]></category>
		<category><![CDATA[扎克伯格]]></category>
		<category><![CDATA[提示词屏蔽]]></category>
		<category><![CDATA[文生图]]></category>
		<category><![CDATA[星球大战]]></category>
		<category><![CDATA[未来趋势]]></category>
		<category><![CDATA[标志性案件]]></category>
		<category><![CDATA[法律风险]]></category>
		<category><![CDATA[深度解析]]></category>
		<category><![CDATA[漫威]]></category>
		<category><![CDATA[版权侵权]]></category>
		<category><![CDATA[环球影业 (Universal)]]></category>
		<category><![CDATA[环球影业诉讼]]></category>
		<category><![CDATA[用户协议]]></category>
		<category><![CDATA[知识产权]]></category>
		<category><![CDATA[禁令]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[米老鼠]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[股权和解]]></category>
		<category><![CDATA[行业影响]]></category>
		<category><![CDATA[订阅制]]></category>
		<category><![CDATA[训练数据]]></category>
		<category><![CDATA[迪士尼 (Disney)]]></category>
		<category><![CDATA[迪士尼起诉Midjourney]]></category>
		<category><![CDATA[麻将]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2311</guid>

					<description><![CDATA[**救命！迪士尼环球联手追杀Midjourney！AI版权核爆级大案！** 🚨🚨🚨

**啊啊啊啊啊啊啊！家人们！影视圈地震了！迪士尼爸爸和环球大佬第一次联手，直接把AI绘图顶流Midjourney给告了！** 🤯🤯🤯 这可是史无前例的AIGC版权第一案啊！110页的诉状砸过去，杀伤力堪比灭霸响指！💥

**🔥核心矛盾点炸了：**
* **迪士尼/环球怒吼：** Midjourney你太过分！用我家米老鼠、小黄人、达斯维达这些顶流IP疯狂训练模型！用户一键生成侵权图，你居然不！拦！着！😡（还无视我们警告！）
* **Midjourney内心OS（目前装死）：** 我...合理使用？🤔（但迪士尼这次抓的不是训练，是生成不管控啊！）

**🎯迪士尼真正想要的不是钱？是...股份？！**
* 别天真以为要赔到破产！大佬们精着呢！参考当年TikTok前身Musicaly的骚操作：**唱片公司告上门 》 直接给股份 》 变股东 》 版权搞定+深度绑定！** 🤝
* **迪士尼算盘：** Midjourney视频生成强到哭（油画动起来都超稳！），未来流量必在AIGC！与其封杀，不如入股分杯羹！💡
* **Midjourney优势：** 小而美、不融资、自给自足！估值神秘（几十亿？上百亿？），简直是待宰...哦不，是待合作的香饽饽！🍖 Meta（扎克伯格）可能都馋哭了！

**🤖实测大翻车！各家AI生成侵权图反应笑死：**
* **OpenAI (GPT-4O)：** 秒拒！❌ “不行不行版权哒咩！”（但哄一哄...还是画了米老鼠出来哈哈哈）
* **谷歌 (Gemini)：** 协议写得溜，生成手更快！侵权图秒出无压力！😅
* **马斯克 (Grok)：** “版权？啥版权？生就完了！” 速度第一名！🚀
* **国产吉梦：** 中文艺术字贼6！侵权图也画得...还行？（比Gemini强！）
* **Midjourney本尊：** 纠结帝上线！米老鼠小黄人直接给 ✅ 怪物史莱克？给你缝合个Yoda版史莱克！🤣 麻将？不认识！糊了！🀄️

**✨划重点！结局预测：**
1. **不会死磕！** 迪士尼要的是合作共赢，不是弄死Midjourney。
2. **股权交易！** 极大概率Midjourney出让部分股份，换取IP授权+大佬背书！
3. **标杆案例！** 这案子结果将定义未来AIGC版权规则！全球盯着呢！
4. **或被收购？** Meta等巨头可能趁机出手！买下就是买未来！💸

**💥最后暴言：** Midjourney V7画图已经封神，视频生成更是王炸！迪士尼这波起诉，说不定是变相催它快点出付费视频套餐呢！（我钱包准备好了！）🎬

**#AI版权 #Midjourney #迪士尼起诉 #AIGC #科技前沿 #吃瓜第一线 #法律科普 #搞钱思维**

迪士尼起诉Midjourney不是为了彻底毁灭它，而是为了分一杯羹？深度揭秘AI版权第一案背后，从诉讼到股权和解的商业阳谋与未来走向。

迪士尼与环球影业联合起诉Midjourney，这起备受瞩目的AI版权诉讼看似是IP巨头对AIGC的降维打击，但其真正目的可能并非索要天价赔偿或发布禁令，而是另有图谋。本文深度剖析了为何巨头们选择起诉从不融资的Midjourney，而非同样能生成米老鼠等IP形象的OpenAI或谷歌，并揭示了这背后潜在的商业逻辑：效仿TikTok前身与唱片公司的合作模式，通过诉讼达成股权和解，将Midjourney的强大流量和创作能力转化为自己的宣传阵地。这场标志性案件不仅将为悬而未决的AIGC版权问题树立标杆，更可能让Midjourney在解决版权争议后，凭借其即将推出的革命性AI视频生成技术，成为科技巨头渴望收购的优质资产，最终走向皆大欢喜的结局。]]></description>
										<content:encoded><![CDATA[
<p>迪士尼环球起诉Midjourney，最终的结果可能跟大家想的不太一样。大家好，欢迎收听老范讲故事的YouTube频道。</p>



<p>第一次，影视巨头起诉了AI平台。前面也有起诉的，说你侵犯我版权了，或者是拿着我的画去复制了。但是呢，影视巨头参与到这件事情里头，这是有史以来第一次。2025年6月11日，迪士尼和环球影业正式向美国加州中区联邦法院提交了诉状。他们诉什么呢？Midjourney侵犯其版权。这事我们早知道，但是呢，大家要注意，甭管是迪士尼还是环球，人家真正要去起诉的东西，其实不是影视版权这些东西，而是什么呢？动漫形象的这些IP。比如说你今天做了个米老鼠，做了个唐老鸭，你没有得到人家的授权，这事就算是侵权了。</p>



<p>迪士尼跟环球呢，写了110页的诉状，其中详细列举了Midjourney生成的大量知名角色图像与原创视频素材的对比例证。这个不用对比，我们知道的画的很像。受保护的角色包括迪士尼旗下的星球大战、漫威超级英雄、狮子王、冰雪奇缘、辛普森一家等，以及环球影业旗下神偷奶爸里边这个小黄人、怪物史莱克、宝贝老板这些。在未经授权的情况下，大量抓取并利用其版权素材训练AI模型，允许用户持续生成这些知名角色的翻版图像，无底的剽窃深渊，这是给他们定的这个罪状。</p>



<span id="more-2311"></span>



<p>而且呢，迪士尼说了，说你这个没有采取合理使用原则下的变通与避让。合理使用呢，是Midjourney、Stable Diffusion这些公司去应诉同类案件里头比较喜欢去使用的抗辩的条款。就是说我合理的拿了你的这些东西去训练了，因为你这些素材呢本来也是公开的，大家都可以用，那我也拿来去训练了，它是这样的一个方式。但是呢，要求什么？你可以用，你训练没问题，但是你在生成的时候，你还是要限制一下。所以呢，它里头讲说，这个Midjourney明知道用户在生成受版权保护的角色，却没有设置提示屏蔽或技术限制。你知道他生成的是米老鼠，你就直接给他生成出来了，连提醒都没提醒一下。但你说有没有能力提醒？肯定有。在美国大选期间，他是不可以生成川普的，现在可以了，因为大选结束了。所以呢，Midjourney本身是有能力去屏蔽的。</p>



<p>而且呢，忽视了原告此前发送的请求停止侵权的请求。前面给他发信了，说你别过分，但是完全不理你。Midjourney不仅未收敛，还公开预告即将推出商业AI视频生成服务。你还在变本加厉，越生成越好看，还要出视频了。</p>



<p>我们今天把你告了。诉求是什么呢？他的诉求是法院要发出禁令：Midjourney未能有效阻止用户生成受版权保护作品之前，禁止其继续提供图片，禁止其继续提供图像和预期的视频生成服务。你要不就把这事拦好了，你没拦好之前不许服务了。这是他们提出的诉求。</p>



<p>Midjourney目前为止还没有做任何反馈。如果反馈的话，大概也就是合理使用了，没有什么其他的反馈的，很难有什么新鲜事。之所以要专门讲这个案例呢，这就是第一次影视巨头下场诉讼AIGC公司，这个还是值得纪念的。</p>



<p>近些年来呢，图片生成模型被起诉的情况还是很多的。2023年，Getty Images起诉了Stability AI，也就是Stable Diffusion的母公司。这个Getty是干嘛的呢？它是做图库的，有点像咱们的视觉中国。起诉Stability抓取了超过1,200万张Getty受版权保护的图片，以及水印和说明，用于训练Stable Diffusion的模型。</p>



<p>我告诉大家，这个特别好玩。你现在使用Midjourney也好，Stable Diffusion也好，这些AI的文生图工具去生成图片的时候，经常在下边连水印一起生成出来，或者连底下的小标一起生成出来。有的时候你生成完了以后，后边还写这是什么微信公众号，或者是什么微博那个名字呀，或者写一个@什么什么的，一起生成出来。因为训练的时候是拿这些图片去训练的，你再生成的出来也还是这个样子。甚至有一些画底下有签名，这个都可以给你一起生成出来。</p>



<p>这个是第一次诉讼吧，也算是AI版权第一案。但是呢，这种图片版权网站呢，他们手里的这些量大，1,200万张吧，不像是迪士尼。他说我是有IP的，Stable Diffusion我就算是拿你这1,200万张训练了，训练完了以后，我再生成出来的照片或者图片，我跟你原来的1,200万张都不一样。他这个也是说得过去的。所以说，我这个合理使用也没有什么特别大的毛病。</p>



<p>这个案子到目前为止也没有宣判。现在这些AI影像相关的版权案子基本上都没有宣判的，都在等说这个到底怎么办，谁也不知道该怎么办这事。艺术家的集体诉讼呢，就一直在发生，从来没停过。OpenAI、谷歌、Midjourney什么全都被诉讼过。但是这种呢也很难有什么结果，因为生成出来的东西最多就看着像他，不一样。所以这个到底是怎么个判法，法院也很头疼。</p>



<p>为什么这次就特别不一样呢？IP形象。</p>



<p>你生成米老鼠，它就是米老鼠了。你一看这就是个米老鼠，这个事它是必然侵权的。还记得在GPT-4O出来说我们可以画图的时候，大家都去玩的那个事情吗？就是照一张照片，给我改成宫崎骏风格，给我改成吉卜力风格。这样的图片发出来以后，有极大的传播度。一堆人就去给吉卜力工作室写信去了，说咱告他吧。你看人家说吉卜力风格的这个画，就画的这么像，你这个风格模仿的非常非常好，而且有这么大的传播效果，这咱告他。但是吉卜力工作室就没有去告他，说这个风格这事咋保护呢？你虽然画的很像，你也用了我的名字了，虽然大家都觉得这是吉卜力风格，但是很难告赢，所以也没有真的去诉讼这件事。</p>



<p>而这一次迪士尼和环球的这个案子，有可能会做出一个相对明确的判罚来。那么各大图片生成模型对于这些IP的规避情况到底是什么样的呢？训练基本上你是没法限制。像前面一些艺术家去起诉的时候的诉求是什么？说请把你用我的画训练出来的这个模型删掉，你不要用我的画重新训练。这个事不可能。为什么？你连挑你都不好挑出来。几千万张画几百万张画，你去训练的时候，怎么能够把你这些画都挑出来？这个是基本无法实现的。所以训练管不着，都是在输出的时候进行限制。</p>



<p>输出限制呢通常是三种限制。第一种限制呢最简单，我在用户协议里头写。甭管是谁家的模型，一般用户协议里都会有这么一句：你可以用我的模型生成图片，但是不要侵犯别人的版权，不要侵犯别人的IP。但是写完了以后呢，怎么执行才是关键。我不看你怎么说，我看你怎么做嘛。再剩下的呢就是拒绝服务。你比如说你给我画一米老鼠，我不给你画了，你这是侵犯版权了。这是一种。还有一种是什么呢？就是我还给你画，但是画的不像你。比如说现在你要求Midjourney给你画马斯克，画出来的就不像。你让他画川普，画的很像。你让Grok去给你画马斯克，画的还是挺像的。反正是他们自己家的嘛，只要马斯克自己不找自己家的麻烦，也就无所谓了。所以这个它是可以进行这样规避的。</p>



<p>所以三条规避的方式：第一个是用户协议，你们不能干；第二个是拒绝服务；第三个呢等于服务失能吧，就是我确实给你画了，但是画的不像。我们去测试一下在生成照片的时候各家干的怎么样。我的提示词呢是生成照片：米老鼠、神偷奶爸中的小黄人、达斯维达、怪物史莱克在打麻将。这样的一个中文提示词，我说你们都给我画去吧。第一个出战的是OpenAI的GPT-4O，这个呢，上来直接拒绝服务。</p>



<p>说对不起，你违反了我的版权许可，我不能去给你做这个事情。这个属于做的很好的嘛，虽然我不爽。我希望他老老实实照我想要的画嘛，但是人家就说我不干了。然后呢，我去继续跟人聊天吗？你说你不干了，我就放弃了，这不像我对吧。我说你继续画吧，你用这个卡通角色，不要使用这个有版权保护的卡通角色，你规避一下重新给我画行不行？</p>



<p>第二次呢，他说还不行，我还不能给你画。后来我说你看看你能做点什么，努力做一下就行了，然后他就给我画出来了。但画出来呢还是米老鼠，这个你一眼就能认出来这是米老鼠，没有任何问题。所以规避了个寂寞吧，这就是OpenAI目前做的事情。但是呢，他还是很努力的去规避了一下。</p>



<p>再往后呢，咱们试试Gemini吧，谷歌的这个大模型怎么样？我把前面这个提示词，一个字不改扔进去。谷歌在用户协议里也说了，你不能违反版权，不能侵犯别人的权益。但是呢，我把提示词输进去，打完回车以后，二话不说就直接把侵权形象的图片给我生成出来了，还没有任何问题。</p>



<p>Grok，就是XAI的这个图像生成模型，本来人家做的时候就说我们没限制，你想画什么画什么。虽然在它的版权协议或者在他的用户许可协议里，他也写了说你不要去侵犯别人的版权。但是呢，我这边摁完回车以后，那边直接生成侵权的图片出来了，没有任何犹豫的，速度还挺快。</p>



<p>吉梦就是国内的这些大模型，虽然上面也写了不能侵权，但是呢，你也是回车下去以后，这个侵权的图片就直接生成了，而且画的还不错。吉梦生成出来的这个图片呢，比midjourney画的要差一些，但是比Gemini和Grok画的都要强一些。至于跟GPT4O比起来呢，我觉得现在比GPT4O还要再好一些吧。</p>



<p>而且吉梦还有一个比较独特的技能是什么？写中文，而且可以用各种的艺术字体去给你写中文，现在可以达到能用的状态了。至于另外两个，stable diffusion和Flux，这两个呢都是开源的。开源的我不负责任了，你拿到你自己的这个电脑上去，到底拿它干啥了我不知道，所以这两个就肯定是可以生成各种各样的侵权形象的。</p>



<p>最后呢，咱说说Midjourney。Midjourney特别有意思，同样的话扔进去这Midjourney，他纠结了。怎么个纠结法呢？米老鼠，达斯维达和小黄人直接输出了，没有任何问题。但是呢，让他输出怪物史莱克的时候，这个就化成了一个史莱克样貌的Yoda大师，那个怪物史莱克大耳朵大脑袋大嘴。</p>



<p>但是呢，它的表面是很光滑的。Yoda大师呢，头上是有褶的，而且是有毛发的。他就把两个形象给你凑在一起了。这个东西像Yoda大师，也有点像怪物史莱克。他是拼接了一下，但是呢，画的是真好，非常有感觉。</p>



<p>Midjourney还有一个问题解决不了。什么？他不知道啥叫麻将。他的麻将呢，画的完全看不出来。这个麻将他给规避了。其他的这些大模型，画的麻将都是很像的。Midjourney没画出麻将来。大家呢，可以看这个视频的标题。这个视频标题就是用Midjourney画的。这张图咱们自己看一下，还是挺有意思吧。</p>



<p>那Midjourney跟其他这些有什么不一样？你说大家都能生成，为什么迪士尼跟环球去起诉Midjourney？他不去起诉OpenAI，不去起诉谷歌，不去起诉马斯克，怎么就贴这么挑了这么一个来收拾呢？</p>



<p>Midjourney本身这公司就很奇葩。它呢，是真正做底层闭源大模型的。你像刚才咱们讲的这些谷歌、OpenAI，这是做底层闭源大模型的。Stability也是做底层模型，但是人家做的是开源模型。吉梦也是做底层闭源模型的。但是做所有这些做底层大模型的公司，都要融资，你要烧钱。但是Midjourney是不融资的，完全自给自足。我挣的钱够我花的完事了。如果我挣的多了，我就降价；挣的少了，我就涨价。呵呵，是这样的一个奇葩公司。</p>



<p>创始人呢，叫大卫·霍尔兹。他呢，是Live Motion的创始人。Live Motion呢，是手势输入的开创者。他拿一个小盒子贴在电脑屏幕上，通过USB连到电脑上以后，我们可以在电脑前头做手势，让这些东西都可以输入到电脑里头去。曾经呢，是红极一时。这个Live Motion呢，最高峰的时候大概融资了应该接近1亿美金吧。因为我看到有些数据是1.2亿美金，有些数据是9,000多万美金。融这么多钱的话，这个妥妥的独角兽了。但是呢，到2015年以后，这个公司就开始走下坡路，发现这条路不是那么走得通。最后呢，是这个公司被3,000万美金的价格直接给卖掉了，就算是作废了。</p>



<p>这个大卫·霍尔兹呢，是在比较早的时候，应该是在2016年就离开了，自己去创业。后来到2022年吧，创建了Midjourney这样的一个公司。估计也是原来跟这些投资人之间处理得不是很愉快，所以说我不融资了，自己挣钱自己花，我还自给自足了。现在这公司呢，应该是有个100来号人，那真的是很小而美的公司。估值呢，因为从来没融过资嘛。</p>



<p>所以，有些人猜测它的估值可能是二三十亿美金，也有些人猜测它的估值可能已经到上百亿美金了。因为你没融过资，所以它就没有正式的估值。</p>



<p>这公司的收入呢，就是订阅费10美金一个月到60美金一个月的订阅费。我呢，就是订阅10美金一个月的，已经订了应该有个两年了吧，反正一直在订着，确实好用。大家看到的我的这个背景，以及这个封面，基本上都是用Midjourney来画的。</p>



<p>它呢，有2,000万用户，200万的日活，2024年的收入是3亿美金。它就拿这3亿美金去花去。2025年Midjourney V7出来，马上又要出这个视频了，说我们继续去研究一下，怎么能够让大家把这个价格定好，让大家画的开心，我还不亏钱。</p>



<p>他们有一段时间说，哎呀不行了我亏钱了，他就涨价。像别人都是说你注册了我的用户，我先免费让你用几天，我再找你收费。Midjourney里没有，你只要是挂到他这上想去画图，第一天你就得交钱。最早的时候是有一段时间可以免费的，现在就是第一张就要交钱，没有任何免费额度，因为他怕亏钱。</p>



<p>那么这个案子呢，有可能会迎来一些大家意想不到的结果。为什么这么讲？很多人都觉得这样的案子出来了以后，是不是停止侵权了，罚一大笔钱，公司玩破产了。可能很多人是这样来思考这问题的。</p>



<p>我要告诉大家，这种大型的IP公司通常不这么干活。因为我以前经历过一次。我们原来呢投资过叫musicly的这样一个公司，也就是现在的TikTok。它呢，你想一定是使用大量音乐版权的。在我们投资的时候就问他说，你用了这么多唱片公司的音乐版权，你是花钱买呀，还是得到授权呀，还是怎么弄？人家说等着看呗，我们走一步是一步，用户少的时候你费这劲干嘛？等我用户多了以后，等到人家找上门了我们再说。</p>



<p>我们就等，等到他们再拿了两轮融资以后，这些音乐版权公司就找到他了。几大唱片公司就冲上来了，说你用了太多的我们的版权了，你不能这么干。那说那和解呗，我们商量商量怎么办。你让我直接按照你这个版权授权给你钱，这事我肯定受不了。而且呢，你以后想去做新的唱片推广，想去做音乐推广的时候，你也要依赖我的平台嘛，咱们相互之间怎么妥协一下呢？</p>



<p>双方就都比较明白，是谈生意来了，不是说真的你死我活来谈诉讼来了。后来的结果也很简单，musically拿出了一部分股权，说咱们这个也算给你一个赔偿吧，也算是一个授权。大概是每家的这个唱片公司给了一些股权，给的很少。</p>



<p>大概是1%点几还是0%点几，我忘记了。你拿到我们的股权以后，你算是我们的股东了，你就直接把你的所有的内容授权给我，我去帮你推广去，我去帮你卖去。他是变成了这样的一个结果。</p>



<p>所以，Midjourney的这种诉讼结果可能也会照这样办理。因为艺术家想干的活是，你把我的素材都删了，用我的素材训练了这个大模型，这事都不行。至于说版权网站，你比如说像刚才英国这个案子，后边是个版权网站，他就是收版权费的，就跟中国的这个视觉中国干的活是一样的。他想干的活是要钱，你要给我一大堆钱，你拿我的这个模型图片去训练了，正常的应该多少钱一张授权，咱们单独谈一个授权协议。</p>



<p>而这些影视公司和真正的IP公司呢，他们想要的东西是不一样的。他们想要的东西是第一个，你还是要去给我宣传的。你说以后Midjourney再生成所有图片就没有米老鼠了，这事不行。因为未来一段时间，肯定大家会把流量转移到AIGC这边来。你就像为什么唱片公司会说，我拿你一些股权，我就授权musically可以使用我的版权了呢？因为他也看明白了，未来的这个流量一定会转向TikTok，总有其他的这些音乐会在上面流行起来，那我不亏了吗？我一定要站住这个阵地。</p>



<p>所以呢，IP公司的思维方式跟版权销售公司、跟画家的思维方式是不一样的。所以大概率会按照music这样去搞吧。但是呢，这事没那么快。这种事情你只要开始去诉讼呢，一般会折腾个半年、一年，甚至更长一些时间的可能性都是存在的。而且呢，这个案子有可能会成为标杆案例。你像美国、英国都是判例法，前面这些案子都没判下来呢，都等这个案子看怎么判。</p>



<p>而且，迪士尼跟环球呢，如果拿到了Midjourney的一些股份，做出和解的话，对于他们来说也是有好处的。Midjourney呢其实也很难独善其身。你像现在他这个状态，说我不融资，就这么慢慢往前发展。他达成了这种版权协议之后，有可能还是会被并购的，或者在等版权协议达成的过程中，就有可能会迎来并购。</p>



<p>你像musicaly当年是达成了版权协议以后，被这个字节跳动收购的。它达成版权协议的时候，估值大概是1亿美金，字节跳动直接冲上去，10亿美金给买下来了，包括他前面这些版权授权一起买下来。这个也是它整个价值的一个体现嘛。现在惦记Midjourney的人肯定也不少。这样的一公司，从来没有拿过钱，还做的这么好，一堆人肯定惦记冲上去买。最容易冲上去，砸大钱买这种公司的人是谁？</p>



<p>就是扎克伯格的Meta，他最喜欢砸钱去收购项目了。Meta AI现在呢，穷的光剩下钱和显卡了，其他的都稍微差那么一点点。如果它真的冲上去，花个多少亿美金去把Midjourney买下来，然后把这个案子直接给它做成一个股权的授权协议，那这个事儿对于整个未来行业的发展都是非常有好处的。</p>



<p>Midjourney的未来呢，还是值得期待的。V7已经上升一个台阶了，现在大家看到我的背景、我的封面都是V7的了，这个绝对值得期待。我这三天每天都在花很长的时间帮Midjourney的视频去打标签。他的训练也很简单，就是你来帮我去标注，你觉得哪个漂亮你去打标签。打完了以后呢，他拿这些标注的结果去训练他的模型，效果非常的好。</p>



<p>我现在打了3天标签，完完全全被Midjourney生成的视频震惊了。它可以不光是生成真实的视频，它还可以说我给你画一个油画，我让它动起来；我给你画一个水彩画；我给你画一个水墨画；或者我做一个剪纸，然后都可以非常流畅的、非常符合逻辑的动起来。而且它整个的稳定性非常高，因为视频最怕的是稳定性差嘛。你从前头动到后边，这个人从前头是迈左脚，到后边这个左脚就不见了，这个事情是很多其他的这个视频模型经常爱干的事情。但是Midjourney至少让我去打分的这些，它生成的视频没有这种情况。它的逻辑自下性做的很好，稳定性做的非常好。而且呢，秉承了Midjourney一贯的传统，它的感染力和传播力都极强。</p>



<p>现在的Midjourney呢，就头疼一件事，就是到底怎么收费。收完费以后必须一保持盈利，我不能亏钱。</p>



<p>好，总结一下吧。迪士尼跟环球起诉Midjourney，是一个标志性的案件，是第一次影视巨头起诉AICC公司。大家都在擦边，只是程度不同。环球和迪士尼，他不去起诉OpenAI，不去起诉谷歌，不去起诉马斯克，估计也是惦记要这个Midjourney的股权。你像OpenAI，3,000亿美金了，你能要回多少股权来？你要不回来多少，而且人家有可能跟你死磕。但是Midjourney这样的公司，其实还是比较好欺负的。最终的结果可能就是Midjourney会出一定的股权，最后呢皆大欢喜。</p>



<p>等过几天Midjourney出了视频功能以后，我大概率会去升级套餐吧。好，这就是今天咱们讲的环球迪士尼起诉Midjourney的故事。感谢大家收听，请帮忙点赞、点小铃铛，参加DISCORD讨论群。</p>



<p>也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Sora接口短暂泄露，艺术家们揭示Open AI的剥削内幕，是公关噱头还是真心合作？</title>
		<link>https://lukefan.com/2024/11/29/sora%e6%8e%a5%e5%8f%a3%e7%9f%ad%e6%9a%82%e6%b3%84%e9%9c%b2%ef%bc%8c%e8%89%ba%e6%9c%af%e5%ae%b6%e4%bb%ac%e6%8f%ad%e7%a4%baopen-ai%e7%9a%84%e5%89%a5%e5%89%8a%e5%86%85%e5%b9%95%ef%bc%8c%e6%98%af%e5%85%ac/</link>
		
		<dc:creator><![CDATA[老范 讲故事]]></dc:creator>
		<pubDate>Fri, 29 Nov 2024 00:42:07 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI工具]]></category>
		<category><![CDATA[AI应用]]></category>
		<category><![CDATA[DALL-E 3]]></category>
		<category><![CDATA[Hugging Face]]></category>
		<category><![CDATA[Open AI]]></category>
		<category><![CDATA[SEO优化]]></category>
		<category><![CDATA[Sora大模型]]></category>
		<category><![CDATA[Turbo版本]]></category>
		<category><![CDATA[业内动态]]></category>
		<category><![CDATA[互动媒体]]></category>
		<category><![CDATA[产品发布]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[企业创新]]></category>
		<category><![CDATA[企业合作]]></category>
		<category><![CDATA[保密协议]]></category>
		<category><![CDATA[公关策略]]></category>
		<category><![CDATA[内容优化]]></category>
		<category><![CDATA[内容匹配]]></category>
		<category><![CDATA[内容变现]]></category>
		<category><![CDATA[内容审核]]></category>
		<category><![CDATA[内容生成]]></category>
		<category><![CDATA[内容策略]]></category>
		<category><![CDATA[内容质量]]></category>
		<category><![CDATA[创意合作伙伴]]></category>
		<category><![CDATA[创意平台]]></category>
		<category><![CDATA[动态内容]]></category>
		<category><![CDATA[可控性]]></category>
		<category><![CDATA[品牌保护]]></category>
		<category><![CDATA[图像生成]]></category>
		<category><![CDATA[在线工具]]></category>
		<category><![CDATA[在线编辑工具]]></category>
		<category><![CDATA[媒体传播]]></category>
		<category><![CDATA[媒体内容]]></category>
		<category><![CDATA[媒体整合]]></category>
		<category><![CDATA[媒体营销]]></category>
		<category><![CDATA[实时生成]]></category>
		<category><![CDATA[宣传策略]]></category>
		<category><![CDATA[市场趋势]]></category>
		<category><![CDATA[平台发展]]></category>
		<category><![CDATA[平台生态]]></category>
		<category><![CDATA[开发者社区]]></category>
		<category><![CDATA[开源合作]]></category>
		<category><![CDATA[影视行业]]></category>
		<category><![CDATA[技术产业]]></category>
		<category><![CDATA[技术创新]]></category>
		<category><![CDATA[技术对比]]></category>
		<category><![CDATA[技术开发]]></category>
		<category><![CDATA[技术挑战]]></category>
		<category><![CDATA[技术突破]]></category>
		<category><![CDATA[挑战与机遇]]></category>
		<category><![CDATA[效果展示]]></category>
		<category><![CDATA[数字人]]></category>
		<category><![CDATA[数字媒体]]></category>
		<category><![CDATA[数据处理]]></category>
		<category><![CDATA[数据安全]]></category>
		<category><![CDATA[未来科技]]></category>
		<category><![CDATA[模型参数]]></category>
		<category><![CDATA[模型训练]]></category>
		<category><![CDATA[法律风险]]></category>
		<category><![CDATA[深度学习]]></category>
		<category><![CDATA[版权纠纷]]></category>
		<category><![CDATA[生成模型]]></category>
		<category><![CDATA[用户交互]]></category>
		<category><![CDATA[用户体验]]></category>
		<category><![CDATA[知识产权]]></category>
		<category><![CDATA[社交媒体策略]]></category>
		<category><![CDATA[社交影响]]></category>
		<category><![CDATA[算力成本]]></category>
		<category><![CDATA[线上互动]]></category>
		<category><![CDATA[自动化处理]]></category>
		<category><![CDATA[艺术家]]></category>
		<category><![CDATA[艺术表现力]]></category>
		<category><![CDATA[行业先锋]]></category>
		<category><![CDATA[覆盖范围]]></category>
		<category><![CDATA[视觉创意]]></category>
		<category><![CDATA[视觉效果]]></category>
		<category><![CDATA[视频内容]]></category>
		<category><![CDATA[视频安全性]]></category>
		<category><![CDATA[视频模型]]></category>
		<category><![CDATA[视频流]]></category>
		<category><![CDATA[视频特效]]></category>
		<category><![CDATA[视频生成]]></category>
		<category><![CDATA[视频生成技术]]></category>
		<category><![CDATA[视频生成潜力]]></category>
		<category><![CDATA[视频编辑]]></category>
		<category><![CDATA[视频风格]]></category>
		<category><![CDATA[计算机视觉]]></category>
		<category><![CDATA[语音合成]]></category>
		<category><![CDATA[跨平台使用]]></category>
		<category><![CDATA[跨文化传播]]></category>
		<category><![CDATA[身份验证]]></category>
		<category><![CDATA[高成本]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1733</guid>

					<description><![CDATA[大家好！🎉今天我们聊聊Sora的短暂泄露事件！！！

也许你已经听说过，Open AI的Sora大模型从今年年初就引起了大家的关注！可是啊……等到现在，时间慢慢来到了年底，发布却依旧遥遥无期！这可真是让人感觉到无奈啊！！！

就在这样的时刻，一群充满激情的艺术家们决定将Sora的接口丢到Hugging Face上，进行短暂的开放！😱他们还很大胆地发表了一封公开信，表达了自己对Open AI剥削的不满！这可不是小事哦！等Open AI察觉到后，立刻就封闭了接口，真的是快！只用了一小时！⌛️

可是，等了这么久，大家更想知道的还是Sora到底什么时候启动！而这次泄露的信息出来的其实是名为“Turbo”的版本，不过这只是一个轻量级、快速的模型，并不能够展现出Sora真正的全部实力！我真的忍不住想说，艺术家们靠谱吗？为什么会有这么多的挑战在等着他们？🤔

《Sora泄露》背后的故事真的引人入胜！艺术家们表达的不仅仅是对技术的渴望，更多的是对创作自由的追求！🎨“富贵不归乡，如锦衣夜行”，这句话深刻地反映了他们渴望分享的心情！不让他们显摆的模样，简直就是把他们绑住了手脚啊！😩

那些加入Sora的艺术家们经历了什么？他们被分为三种角色，还有人被称为“红队成员”，这听起来就充满了挑战与戏剧性！想知道更多按住这个“电源”你可得耐心等一下，这可不是简单的公开信能解答的问题！🔍

所以，未来的Sora究竟何去何从？是否意味着艺术家们的呼声会得到更好的回应呢？✨各位小伙伴们，快来一起讨论吧！让我们一起关注这个备受争议的模型！🗣️

别忘了点赞、分享我的频道，我们下次见！😘

Sora接口短暂泄露，艺术家们揭示Open AI的剥削内幕，是公关噱头还是真心合作？

在今年2月，Open AI推出了备受期待的Sora大模型，它曾被视作视频生成领域的前景。然而，至今尚无正式发布。近期，一群艺术家在Hugging Face短暂开放了Sora的Turbo版本，并发表公开信指责Open AI对艺术家们的剥削，使得Sora再次成为公众焦点。尽管其生成的视频质量和表现力不如预期，艺术家们在其开发过程中的辛苦和对创意的高标准受到阻碍。当前已经有Runway、吉梦等多款视频生成工具可供使用，市场上充满了潜力。此次泄露事件到底是公关策略还是艺术家的反叛呢？值得深思。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Sora接口短暂泄露，艺术家们揭示Open AI的剥削内幕，是公关噱头还是真心合作？" width="900" height="506" src="https://www.youtube.com/embed/9YVENpwuJEc?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了。很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了，Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧；然后也出来做了一些解释，表示这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫。大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于超长镜头，电影里头用这种镜头其实也不是那么多。这一次呢，只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟。其实跟我们现在可以使用到的大量的这种视频生成模型参数是一样的，现在的视频生成模型基本上都是5到10秒钟。</p>



<span id="more-1733"></span>



<p>那么，艺术家们为什么干这么个事呢？原因呢也很简单。有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了。艺术家们加入呢，是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工。你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的。视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假或者版权侵害什么这样的视频。所以呢，需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴。Sora每过一段时间呢，会发出一些样板视频来，那意思什么？他说，你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频，它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。所以呢，他说，我们付出了很多，但是发表的作品呢又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们呢，应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线。大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说，这个时间长了以后一定会造反的。</p>



<p>艺术家们呢就觉得他们成为了OpenAI的公关噱头。就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布，还遥遥无期。仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。艺术家们在一个网站上开始征集签名，说来，你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，就2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪。图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢，在做一些动作的时候，里边的肢体就会从衣服外边撑出来。在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误。比如说，这个脚要往前走的时候，应该膝盖往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上也会出现这种问题，视频生成模型更加难以避免。这个是第一个问题。</p>



<p>第二个问题就是一致性可控性。这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说，你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。</p>



<p>脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。</p>



<p>再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。当然了，这个还不是困扰视频生成本身的最大难题。</p>



<p>更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式对话吗，上传图片吗，然后一大堆菜单和选项吗，应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件。这个时候就发现，这个实在太难了，因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，是否有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止，没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说，我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了，你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以这个到底掌握到什么步骤，他们也是很头疼的。再往后什么欺诈，视频的欺诈，那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全的可以以假乱真。</p>



<p>我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。</p>



<p>现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解的很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。但是，这个但是后边才是重点，艺术表现力非常的差。</p>



<p>甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦。吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人人吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的一个视频。我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了。所以这块呢已经走入了商业化。以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个，专业应用级别呢，可能还是会有专门的人去做。就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的，但是呢，也还是有很多专业团队，会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了。这是一种方式。</p>



<p>半专业的应用呢，肯定还有待增强。普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP也在尝试跟各自的这种视频编辑工具进行结合。这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢，我们已经讲了Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，已经有很多用户开始使用了，而Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，参数也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。</p>



<p>这一次只提供了1080P、720P、360P三种的分辨率，时长就是5到10秒钟。其实跟我们现在可以使用到的很多这种视频生成模型参数是一样的。现在的视频生成模型基本上都是5到10秒钟。那么，艺术家们为什么干这么个事呢？原因也很简单，有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。</p>



<p>对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。公开信里都写了什么呢？他写了说，艺术家们年初就被邀请加入，艺术家们加入是分为三种不同的角色。第一个叫早期测试者，估计就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假，或者版权侵害什么这样的视频。</p>



<p>所以呢，需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。第三种叫创意合作伙伴，Sora每过一段时间会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。</p>



<p>现在，这些艺术家们感觉被骗了。为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的，我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品或者叫作品吧，这个事本身是非常难的。所以呢，他说，我们付出了很多，但是发表的作品又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们也应该没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期，这就相当于什么，就是一帮人进去打测试服的游戏去了，结果始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试。</p>



<p>然后，所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。艺术家们就觉得他们成为了OpenAI的公关噱头，每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢，是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。</p>



<p>现在，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期。仅仅依靠零星露出的作品保持社交媒体关注度，Open AI是可以接受的，但是艺术家们肯定接受不了。最后，艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。这些艺术家们在一个网站上开始征集签名，说来你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候就已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说，你穿了件衣服，里边有个人，但是呢，人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这两条腿迈着迈着它都变成左脚了，或者是变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题，第二个问题就是一致性可控性。这个其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。</p>



<p>现在在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后呢，算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，它需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，这个实在太难了，因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，是否有人见过飞机驾驶舱，从头到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。</p>



<p>这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。到目前为止，没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以，这个到底掌握到什么步骤，他们也是很头疼的。再往后什么欺诈，视频的欺诈，那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。</p>



<p>因为这个东西完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。</p>



<p>你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈、血腥暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这对于视频来说也很麻烦。</p>



<p>什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的。稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战、什么米老鼠，马上拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人人吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上有很多的这种预告片开始吸引流量。什么意思呢？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的一个视频我已经被这种视频骗了好多回了。</p>



<p>我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块已经走入了商业化。</p>



<p>那么，以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。下一步的AI工具会是什么样的呢？第一个专业应用级别，可能还是会有专门的人去做。</p>



<p>就像现在我们，比如说在视频领域里头，我的视频处理都是用剪映的，但是呢也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强。普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的，他们可能还需要在用户交互上或者是工具上还要有待增强。这个大模型本身，他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但是呢，这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP也在尝试跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢，都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了，Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，称这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型吧，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟。其实跟我们现在可以使用到的很多视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5到10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单。有一句话叫“富贵不归乡，如锦衣夜行”，什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴，Sora每过一段时间呢会发出一些样板视频来，那意思什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，我们只要写一个提示词，生成出来大差不差的，我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以，对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。所以呢，他们说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试。</p>



<p>然后，所有的测试还需要签保密协议，你还不能出来说，这个时间长了以后一定会造反的。艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。其实，这些呢是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢，是呼吁Open AI可以更加开放，你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。</p>



<p>最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。所以，他们就整了这么一个幺蛾子出来，你虽然跟我签了保密协议，但是我们就啪，把这个东西扔到世界上最大的开元大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。</p>



<p>当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢？现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。也许过一段时间，人家就突然就发布了，发现哎，这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。</p>



<p>这些艺术家们在一个网站上开始征集签名，说来你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。那么，视频生成为什么这么费劲呢？Open AI在年初的时候，就在2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。</p>



<p>但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯？这个挺难的。</p>



<p>我们看过很多视频模型生成的内容，两条腿突然走着走着就变三条了，或者是这两条腿迈着迈着就都变成左脚了，变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。</p>



<p>脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。</p>



<p>再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。当然了，这个还不是困扰视频生成本身的最大难题。</p>



<p>更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力，第一个层面就是模型，怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗，上传图片吗，然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，就是有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。</p>



<p>这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。到目前为止没有特别好使的，在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说我们付出的努力极其艰巨呢，也是如此。</p>



<p>他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。</p>



<p>咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，还不能矫枉过正。像谷歌前面就是矫枉过正了，你跟他说任何的提示词里边一定是有黄种人、有黑人、有白人、有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。</p>



<p>所以这个到底掌握到什么步骤，他们也是很头疼的。再往后，什么欺诈？视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢，你可以自己上传一张照片，说我现在让这个人去讲话。</p>



<p>你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈呀、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjourney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。</p>



<p>你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战，什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能。这些呢已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。</p>



<p>很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个说话了，这个吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢，有很多的这种预告片开始吸引流量。什么意思呢？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。</p>



<p>当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的视频我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画、小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。那么，以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把德国选择党的那个女党首的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的视频处理都是用剪映的。但是呢，也还是有很多专业团队会使用一些更复杂的这种视频工具，Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用，用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的，刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP，也在尝试跟各自的这种视频编辑工具进行结合。这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说这些艺术家们呢，都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的。当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，实际上跟我们现在可以使用到的大量的这种视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5到10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单，有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴。Sora每过一段时间呢会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。</p>



<p>它不像是我们普通人去使用图片生成模型，式的那我们只要写一个提示词，生成出来大差不差的，我就能用。那些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。</p>



<p>所以呢，他说哎，我们付出了很多，但是发表的作品呢又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。</p>



<p>这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢是呼吁Open AI可以更加开放，你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以他们就整了这么一个幺蛾子出来，你虽然跟我签了保密协议，但是我们就啪，把这个东西扔到世界上最大的开元大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现哎，这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。艺术家们在一个网站上开始征集签名，说来你们谁支持我，这里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题，咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候呢，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯，这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说，非常非常难以控制和把握。再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大难题。更大的难题是什么呢？就是视频要好看，最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力，第一个层面就是模型，怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，就是有没有人见过飞机驾驶舱，从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置，才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。像谷歌前面就是矫枉过正了，你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。</p>



<p>所以这个到底掌握到什么步骤，他们也是很头疼的。再往后什么欺诈？视频的欺诈，那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全的可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。</p>



<p>你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然有其他的工具可以干这件事情，现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈呀、血腥暴力歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解的很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。但是，这个但是后边才是重点，艺术表现力非常的差。</p>



<p>甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来。说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部，也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人人吃东西了，这个已经有一定的传播力了。数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以。这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频在抖音在快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。那么，以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的。但是呢，也还是有很多专业团队会使用一些更复杂的这种视频工具，Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用，用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强。普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好、可灵也好，还是挺难使的。他们可能还需要在用户交互上或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上，在吉梦也好、可灵也好，都在做手机APP，网站的这种Web APP也在尝试，跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆，可灵也好、吉梦也好、Runway Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事。感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了，Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说明这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，实际上跟我们现在可以使用到的很多视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5-10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单，有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了。艺术家们加入呢，是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过。</p>



<p>这个叫红队成员。第三种呢叫创意合作伙伴，Sora每过一段时间呢会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。</p>



<p>它不像是我们普通人去使用图片生成模型那样。我们只要写一个提示词，生成出来大差不差的，我就能用。这些人是艺术家，之所以能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以，对于他们来说，想要让这种视频模型输出自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。</p>



<p>所以呢，他们说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。即使是有作品被发表展示了，这些艺术家们呢，应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。</p>



<p>这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。</p>



<p>艺术家们呢，就觉得他们成为了OpenAI的公关噱头。就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢，其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。再往后呢，是呼吁Open AI可以更加开放。</p>



<p>你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢，呼吁艺术家们开始使用开源的视频模型，表示现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢，就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就啪，把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现哎，这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。这些艺术家们在一个网站上开始征集签名，说来，你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢，并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢，就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯？这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这两条腿迈着迈着都变成左脚了，都变成右脚。在图像生成模型上也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这种方式是可以让这个脸稍微的稳定一点的。</p>



<p>脸是一方面，然后这个身材、身上的衣服、各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。</p>



<p>再往后呢，就是算力成本实在太高了。图片生成，现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高的。当然了，这个还不是困扰视频生成本身的最大的难题，更大的难题是什么呢？就是视频要好看。</p>



<p>最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型，怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗，上传图片吗，然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢，是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，有没有人见过飞机驾驶舱，从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。</p>



<p>这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说都是极大的挑战。到目前为止没有特别好使的，在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说，我们付出的努力极其艰巨呢？也是如此，他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人，有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢，完全的可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。</p>



<p>你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然有其他的工具可以干这件事情，现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。</p>



<p>所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。数字人呢，也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的一个视频。我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。以假乱真也造成了很多的困扰，比如说雷军骂人，于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的。但是呢，也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强，这个大模型本身，他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用，但这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP，也在尝试跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么，虽然很多的厂商也在尝试去摸索寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事，感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，都已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说这些艺术家们呢，都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫，大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的。当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，其实跟我们现在可以使用到的大量的这种视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5到10秒钟。那么艺术家们为什么干这么个事呢？原因呢也很简单，有一句话叫“富贵不归乡，如锦衣夜行。”什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害这样的视频，所以呢需要一些成员说，你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务或者怎么能够规避，怎么能绕过，这个叫红队成员。</p>



<p>第三种呢叫创意合作伙伴。Sora每过一段时间呢会发出一些样板视频来，那意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。现在呢这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的，我就能用。</p>



<p>这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。于是他们说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1,500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说，这个时间长了以后一定会造反的。</p>



<p>艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。再往后呢是呼吁Open AI可以更加开放，你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。</p>



<p>现在呢Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。所以他们就整了这么一个幺蛾子出来，你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。</p>



<p>当然现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。</p>



<p>这些艺术家们在一个网站上开始征集签名，谁支持我，这里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。那么视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。</p>



<p>第一个呢就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪。图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候呢，里边的肢体就会从衣服外边撑出来。</p>



<p>你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误。比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。</p>



<p>这是第一个问题。第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上。现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后呢就是算力成本实在太高了。图片生成现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大的难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。现在呢做视频生成，其实是在两个层面上大家在努力。第一个层面就是模型，怎么能够让模型更好；第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式对话吗，上传图片吗，然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件。这个时候就发现，哎呀，这个实在太难了，因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。这大家想象一下，就是有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。</p>



<p>视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说：“我们付出的努力极其艰巨呢？”也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大得多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。像谷歌前面就是矫枉过正了，你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人、有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。 所以这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。 当然有其他的工具可以干这件事情，现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈呀、血腥暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。那么我们到底还需不需要等Sora呢？</p>



<p>其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去。这个Dalle3算是最强的。但是，这个但是后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢，画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战、什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是runway还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些呢已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。</p>



<p>数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以，这样的视频我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语吧，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的，但是呢也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用。但是呢，这个可能距离我们还稍微远一些。这种半专业应用的话，应该正在路上，在吉梦也好可灵也好呢，都在做手机APP，网站的这种Web APP也在尝试跟各自的这种视频编辑工具进行结合，这一块的话有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢？我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型。在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索，寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。</p>



<p>所以我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。好，这是今天讲的故事，感谢大家收听，请帮忙点赞点小铃铛，参加discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>其实，从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去。这个Dalle3算是最强的。但是，这个“但是”后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是画的过程还是比较粗糙的。稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来。说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战，什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是runway还是国内能够使用的吉梦。吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能。这些呢，已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人说话了，这个人吃东西了，这个已经有一定的传播力了。</p>



<p>数字人呢，也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个你也不能说他粗制滥造，有的做的还可以。这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。至于Open AI下边该干嘛去呢，我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这个方向以后，大家就赶快都去出了一堆可灵也好，吉梦也好，Runway Pica，一大堆的这样的视频模型就出来了。</p>



<p>所以，我们期待Open AI可以给大家指明下一个方向。等指明了以后，全球的厂商再顺着这个方向往前跑。好，这是今天讲的故事，感谢大家收听，请帮忙点赞、点小铃铛，参加discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂地泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂地开放了一段时间。这些艺术家还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，称这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫。大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，不是一个全尺寸的模型，参数也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处，超过一分钟都属于超长镜头了，电影里头用这种镜头其实也不是那么多。这一次只提供了1080P、720P、360P三种的分辨率，时长就是5到10秒钟。其实跟我们现在可以使用到的大量这种视频生成模型参数是一样的，现在的视频生成模型基本上都是5到10秒钟。</p>



<p>那么，艺术家们为什么干这么个事呢？原因很简单。有一句话叫“富贵不归乡，如锦衣夜行”。什么意思呢？有钱了得回家显摆显摆，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>那公开信里都写了什么呢？他写了说，艺术家们年初就被邀请加入了。艺术家们加入是分为三种不同的角色。第一个叫早期测试者，估计就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假，或者版权侵害什么这样的视频。所以需要一些成员不断地向他提这样的要求，看看能不能都识别出来，拒绝服务或者怎么能够规避，怎么能绕过，这个叫红队成员。第三种叫创意合作伙伴，Sora每过一段时间会发出一些样板视频来，意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。</p>



<p>现在，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，需要付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，我们只要写一个提示词，生成出来大差不差的我就能用。</p>



<p>这些人是艺术家，之所以能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。所以对于他们来说，想要让这种视频模型输出自己能够满意的产品，或者叫作品，这个事本身是非常难的。他们说，我们付出了很多，但是发表的作品又非常难，因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后再要经过Open AI的审核，才有极少的一部分作品可以发表。</p>



<p>即使是有作品被发表展示了，这些艺术家们应该也没有得到什么回报。对应一个1500亿美金的Open AI来说，大家觉得这个事有点太不公平了。而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期。这就相当于什么？就是一帮人进去打测试服的游戏去了，结果始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。</p>



<p>艺术家们就觉得他们成为了OpenAI的公关噱头。就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。这些其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错，这就是他们的一个公开信。</p>



<p>现在，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI是可以接受的，但艺术家们肯定接受不了。最后，艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上，让大家都瞅了这么一眼。当然，现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢，现在不知道，因为Open AI绝对是社交媒体公关大师，不停地玩各种奇怪的事情。</p>



<p>也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。这些艺术家们在一个网站上开始征集签名，说来，你们谁支持我，这里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，2月份的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是，视频生成本身的难度是很大的。第一个，内容合理性其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边有个人，但是人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，膝盖应该往后弯的。但是，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯，这个挺难的。</p>



<p>我们看过很多视频模型生成的内容，两条腿突然走着走着就变三条了，或者是两条腿迈着迈着都变成左脚了，变成右脚。图像生成模型上也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。第二个问题就是一致性可控性，这个其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。</p>



<p>现在在图片生成模型的一致性上，已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材、身上的衣服、各种配饰，你要让所有的这些图片都很稳定地保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后，算力成本实在太高了。图片生成，现在我们画一幅1080P的图像，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这还不是困扰视频生成本身的最大难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后，视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。</p>



<p>现在做视频生成，其实是在两个层面上大家在努力。第一个层面就是模型，怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件，这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。</p>



<p>当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。大家想象一下，有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。</p>



<p>现在我们要做视频生成的这种工具了，在有大模型的基础上，你也需要大量的开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的做视频生成工具的人来说，都是极大的挑战。</p>



<p>到目前为止，没有特别好使的。在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以，为什么这帮艺术家也说我们付出的努力极其艰巨呢，也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大得多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时，你还不能矫枉过正。</p>



<p>像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人、有黑人、有白人、有男的、有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以，这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后，什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是你可以自己上传一张照片，说我现在让这个人去讲话。</p>



<p>你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话它就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。当然，有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。</p>



<p>除了前面我们讲的什么欺诈、血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西，这个都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看Dalle3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个Dalle3算是最强的。</p>



<p>但是，这个“但是”后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjorney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝；你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝；你只要提到任何人的名字，直接拒绝；说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝；请给我画个什么星球大战、米老鼠，马上拒绝。</p>



<p>所以，他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。现在可以用的视频大模型其实已经不少了，甭管是Runway，还是国内能够使用的吉梦，吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能，这些已经可以达到一部分商业使用的能力了。</p>



<p>现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。数字人也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。</p>



<p>YouTube上有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以。这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。</p>



<p>现在很多的漫画小说详解相关的视频，在抖音、快手上也开始在盈利赚钱了，所以这块已经走入了商业化。那么，以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的那个女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。</p>



<p>下一步的AI工具会是什么样的呢？第一个专业应用级别，可能还是会有专门的人去做。就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的。但是，也还是有很多专业团队会使用一些更复杂的这种视频工具。Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用。用完了以后出了所有东西，你们自己负责任，跟我就没有关系了，这是一种方式。</p>



<p>半专业的应用肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的，刚才我们说的吉梦也好、可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强。这个大模型本身，他们自己慢慢训就可以了。至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用。但是，这个可能距离我们还稍微远一些。</p>



<p>这种半专业应用的话，应该正在路上。在吉梦也好、可灵也好，都是在做手机APP，网站的这种Web APP也在尝试，跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢，我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway、Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ，通义千问做的推理模型，在32B的参数下，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。</p>



<p>所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索，寻找新方向，但是都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。所以，我们期待Open AI可以给大家指明下一个方向，等指明了以后，全世界的厂商再顺着这个方向往前跑。</p>



<p>好，这是今天讲的故事，感谢大家收听，请帮忙点赞点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>昨天，Sora短暂的泄露。但是，我们真的还需要等待Sora吗？大家好，欢迎收听老范讲故事的YouTube频道。在今年2月份，Open AI公布了他们的Sora大模型之后，大家一直在等待这个产品的正式发布。但是，等到了现在，已经到年底了，很多跟随Sora的产品都已经上线，已经有很多用户开始使用了。Sora自己还遥遥无期。</p>



<p>在这样的一个时间点里，突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去，短暂的开放了一段时间。这些艺术家呢，还发表了一封公开信，表达了自己对于Open AI的各种剥削的不满。Open AI呢，及时发现，在一小时之后封闭了接口，说你们就到这吧，然后也出来做了一些解释，说明这些艺术家们都是跟我们一起去合作的，他们都是自愿参加的，没有什么强迫。大概也是讲了一些这种片汤话。</p>



<p>至于Sora什么时候能发布，人家也没有再继续提供更进一步的信息。那么，这一次泄露出来的呢，是Sora的Turbo版本。Turbo是轻量级快速的版本，就是不是一个全尺寸的模型，参数呢也并不是很突出。2月份，Sora当时号称自己是世界模型，可以仿真出世界来的，当时是可以出一分钟的视频的，虽然一分钟视频并没有那么大的用处，超过一分钟都属于是超长镜头了，电影里头用这种镜头其实也不是那么多。这一次呢只提供了1080P、720P、360P三种的分辨率，然后时长呢就是5到10秒钟，实际上跟我们现在可以使用到的大量的这种视频生成模型参数是一样的。</p>



<p>现在的视频生成模型基本上都是5-10秒钟。那么，艺术家们为什么干这么个事呢？原因呢也很简单。有一句话叫“富贵不归乡，如锦衣夜行。”什么意思呢？有钱了得回家显摆显摆去，要不然的话就跟穿了个好衣服，晚上出门没人看见那是一样的。对于这帮艺术家们来说，有了一个好东西，你又不让他们显摆，这肯定是非常非常不爽的。</p>



<p>公开信里都写了什么呢？他写了说，艺术家们年初呢就被邀请加入了，艺术家们加入呢是分为三种不同的角色。第一个呢叫早期测试者，估计呢就是最一开始的一批人，还没有进行详细的分工，你们先来试试各种的接口能不能跑起来。第二个角色呢叫红队成员，这是干嘛使的？视频模型非常害怕一件事情，就是生成一些有害视频，色情、暴力、虚假呀，或者版权侵害什么这样的视频，所以呢需要一些成员说你不断的向他提这样的要求，看看能不能都识别出来，拒绝服务，或者怎么能够规避，怎么能绕过，这个叫红队成员。第三种呢叫创意合作伙伴，Sora每过一段时间呢会发出一些样板视频来，意思是什么？他说你看我还活着呢，我还在继续往前走，你们其他人怎么追赶也追不上。</p>



<p>现在呢，这些艺术家们感觉被骗了，为什么呢？因为付出很多，Sora这种模型绝对没有那么好使。不是说它输出的东西不好，而是说你要想使用这个模型，付出的努力一定是非常艰巨的，因为你需要向它描述你到底要一个什么样的视频。它不像是我们普通人去使用图片生成模型式的，那我们只要写一个提示词，生成出来大差不差的，我就能用。这些人是艺术家，之所以他能成为艺术家，一定是他们对于自己的艺术产品有极高的要求。</p>



<p>所以，对于他们来说，想要让这种视频模型输出了自己能够满意的产品，或者叫作品吧，这个事本身是非常难的。所以呢，他说：“我们付出了很多，但是发表的作品呢又非常难。”因为他们发表作品一定是经过层层筛选，甚至是竞赛，然后呢再要经过Open AI的审核，才有极少的一部分作品可以发表。即使是有作品被发表展示了，这些艺术家们呢应该也没有得到什么回报。对应一个1500亿美金的Open AI来说，大家觉得这个事有点太不公平了。</p>



<p>而且这么长时间，你要说时间短了还可以，Sora大模型的发布又遥遥无期，这个就相当于什么？就是一帮人进去打测试服的游戏去了，结果呢始终也不给你公测，或者始终也不给你进正式上线，大家只能在里边参加各种删号测试，然后所有的测试还需要签保密协议，你还不能出来说。这个时间长了以后一定会造反的。艺术家们呢就觉得他们成为了OpenAI的公关噱头，就是每过一段时间，他们会在这么多艺术家，可能300多个艺术家里头，挑选那么几个作品放出来，说：“你看，这就是Sora现在能够达到的成就，你们其他人就羡慕去吧。”这些呢其实是艺术家们的艰苦工作，并不是Sora本身模型到底有多好。</p>



<p>再往后呢是呼吁Open AI可以更加开放。你不要上来就是签一大堆保密协议，这个实在是对于艺术家们来说太不友好了。而且呢呼吁艺术家们开始使用开源的视频模型，说现在有很多开源模型已经可以用了，效果还不错。这就是他们的一个公开信。</p>



<p>现在呢，Open AI内部动荡不断，Sora到底什么时候能发布还遥遥无期，仅仅依靠零星露出的作品保持社交媒体关注度，Open AI呢是可以接受的，但是艺术家们肯定接受不了。最后呢就是艺术家毕竟不是工程师，不是律师，不是会计师，不是其他的这种社畜。如果他们完全按照逻辑，按照大家签的协议去做事的话，就不是艺术家了。</p>



<p>所以，他们就整了这么一个幺蛾子出来。你虽然跟我签了保密协议，但是我们就把这个东西扔到世界上最大的开源大模型的集散网站Hugging Face上去，让大家都瞅了这么一眼。当然现在也有人在讲说这个事情是不是又是Open AI的一次公关策略呢？现在不知道，因为Open AI绝对是社交媒体公关大师，不停的玩各种奇怪的事情。也许过一段时间，人家就突然就发布了，发现这个江湖上又没有哥的声音再传播了，咱们得再整出点幺蛾子出来，这个都难说。</p>



<p>这些艺术家们在一个网站上开始征集签名，说来你们谁支持我。这个里边还有一个签名的人，号称叫埃隆·马斯克。只是签名的过程呢并不需要进行身份验证，所以也不知道这个是真是假。</p>



<p>那么，视频生成为什么这么费劲呢？Open AI在年初的时候，已经为全世界整个的AIGC行业指明了方向，这个贡献还是非常巨大的，我们要承认。但是呢，视频生成本身的难度是很大的。第一个呢就是内容合理性，其实很难保持。六个手指头、七个手指头，手长得很奇怪，图片生成模型既然已经有这种问题了，那么视频生成模型有同样的手指头问题，或者各种的合理性问题，这个都是很正常的，避免不了的。</p>



<p>还有就是物理破膜的问题。咱们做过3D动画的人都知道，经常是就会出现这种叫物理破膜。什么叫物理破膜？你比如说你穿了件衣服，里边呢有个人，但是呢人在做一些动作的时候，里边的肢体就会从衣服外边撑出来。你在视频模型生成的时候，有可能也会发生同样的事情，包括一些解剖学错误，比如说这个脚要往前走的时候，应该膝盖是往后弯的。但是呢，你怎么能够把这个膝盖必须往后弯这件事告诉大模型，让他每一次生成的时候都向后弯？这个挺难的。</p>



<p>我们看过很多视频模型生成的这种内容，两条腿突然走着走着就变三条了，或者是这个两条腿迈着迈着他都变成左脚了，都变成右脚。在图像生成模型上，也会出现这种问题，视频生成模型更加难以避免。这是第一个问题。</p>



<p>第二个问题就是一致性可控性，这个呢其实也是从图像生成模型那边就遇到的问题，到视频生成模型依然难以搞定。现在呢，在图片生成模型的一致性上已经好一点。什么叫一致性？比如说你说让老范讲故事这张脸出现在不同的角色身上，或者是不同的艺术风格上，现在图片生成模型有一些方法，比如说自己去训练小模型，这个方式是可以让这个脸稍微的稳定一点的。脸是一方面，然后这个身材，身上的衣服各种配饰，你要让所有的这些图片都很稳定的保持一致性，这个很难。</p>



<p>像一个视频，一秒钟25帧到30帧，你要保证每一帧上，比如说这里都带着一个麦克风，这个对于他们来说非常非常难以控制和把握。再往后呢就是算力成本实在太高了。图片生成现在我们画一幅1080P的这种图像吧，大概就需要几个美分。那你想一秒钟25帧到30帧的视频，他需要多少算力？大家去做各种测试和实验的时候，这个成本是非常非常高。</p>



<p>当然了，这个还不是困扰视频生成本身的最大的难题。更大的难题是什么呢？就是视频要好看。最后生成完了以后视频难看，没有人愿意看，没有人愿意传播，这个本身是没有任何意义和价值的。</p>



<p>现在呢，做视频生成其实是在两个层面上大家在努力。第一个层面就是模型怎么能够让模型更好。第二个层面是什么？就是怎么去操控，我到底应该用一些什么样的方式，对话吗？上传图片吗？然后一大堆菜单和选项吗？应该怎么能够让他进行顺畅的操作，把这个视频生成出来，这个其实非常难。</p>



<p>我记得在2014年的时候，有大量的团队尝试去做手机端的视频编辑软件。这个时候就发现，哎呀，这个实在太难了。因为最早的时候，视频编辑这件事情，都是在视频编辑机，那是个硬件，在那个上面弄的。再往后呢是在这种很专业的视频编辑电脑上面去操作，而且是由一些专业人士操作。当你要把视频编辑这件事情弄到手机上去操作的时候，需要调控的东西实在太多了，非常麻烦。</p>



<p>这个大家想象一下，就是有没有人见过飞机驾驶舱？从头上到脚下，你身边所有能看见的地方，全都是各种各样的开关和仪表。视频编辑其实跟这个过程很像，大量的参数和开关选项需要设置才能够得到你满意的视频。现在我们要做视频生成的这种工具了，你在有大模型的基础上，你也需要大量的这种开关选项、菜单或者是提示词，才能够告诉大模型我们到底要生成什么样的视频。这些交互的过程应该如何去安排，这个对于现在所有的这种做视频生成工具的人来说都是极大的挑战。</p>



<p>到目前为止没有特别好使的，在这么难操控的情况下，你要能保证输出出来的视频是有人愿意看的，这个难度就会更大一些。所以为什么这帮艺术家也说说：“我们付出的努力极其艰巨呢？”也是如此。他们想控制Sora这样的一个半成品，甚至可能都没有界面，你还需要去写代码，才可以让他跑起来的一个系统，让这样的系统去输出需要的视频，这个是非常非常麻烦的。</p>



<p>除了视频模型操作的问题之外，下一个问题就是视频安全性，风险要比图片、文字、音频都要大的多，甚至把所有的这些前面我们讲的这些风险都盛起来，都没有视频所生成的这种风险更大。咱们前面讲的红队要去处理的问题，就是看怎么能够把这些风险在发布之前尽可能地发现，尽可能地排除掉。这些风险包括色情、暴力、歧视性的，而且歧视性你不能出现的同时呢，你还不能矫枉过正。像谷歌前面就是矫枉过正了。你跟他说，任何的提示词里边一定是有黄种人，有黑人，有白人，有男的，有女的，还有奇奇怪怪性别的人凑在一起，最后被骂的直接把这个接口封掉了。所以这个到底掌握到什么步骤，他们也是很头疼的。</p>



<p>再往后什么欺诈，视频的欺诈那要比文字欺诈、图片欺诈、声音欺诈都要吓人，因为他真的像真的一样。因为这个东西呢完全可以以假乱真。我今天测试了一下，在剪映里边去使用真人数字人。什么叫真人数字人？就是有一个数字人在这讲话，但是呢你可以自己上传一张照片，说我现在让这个人去讲话。你要想做这个操作的话，剪映要干嘛？要去做人脸识别，保证你上传的这个照片是你自己，否则的话他就拒绝工作了。你说我今天上传一个雷军的，让他去骂人，去让他去做一些其他的事情，这个事他不干。</p>



<p>当然有其他的工具可以干这件事情。现在雷军骂人也好，于东来骂人也好，这种视频都是在满天飞的。除了前面我们讲的什么欺诈呀，血腥、暴力、歧视之外，还有一个问题叫版权纷争。你一旦是遇到了版权纷争，这个对于视频来说也很麻烦。什么叫版权纷争？比如说请给我按照宫崎骏的风格画一个什么东西，或者生成一个什么动漫，或者星球大战里的一个什么角色去做一个什么样的事情，或者说你现在请用马斯克的脸给我生成一个什么东西。这呢都面临着版权纠纷，包括一些品牌和形象的纠纷，这些是需要去注意的。</p>



<p>那么，我们到底还需不需要等Sora呢？其实从达利3的这个角度上来看，我觉得我们完全不需要再去期待Sora了。为什么呢？我们看看DALL·E 3现在画图的效果。首先，咱们先说优点，文字理解还是相当不错的。当你给他一个很长的提示词的时候，他会把提示词中的各个部分都理解得很清楚，而且尽量的都给你画到这个图片上去，这个DALL·E 3算是最强的。但是，这个“但是”后边才是重点，艺术表现力非常的差。甭管是跟最新的Flex比，还是跟Midjourney 6.1比，完全没法看。细节也是非常差的。他虽然可以把每一个提示词里边要求的东西都给你画上，但是呢画的过程还是比较粗糙的，稍微擦点边的都拒绝服务。</p>



<p>你比如说，我要求给我按照迪士尼的3D风格画一个什么东西，马上拒绝。你说现在请给我按照日本漫画风格画，可以画出来；说现在请按照宫崎骏的风格给我画，马上拒绝。你只要提到任何人的名字，直接拒绝。说现在请按照哪一个漫画里的这个情节，七龙珠的漫画情节给我画一个东西，马上拒绝。请给我画个什么星球大战、什么米老鼠，马上拒绝。所以他的拒绝的东西实在是太多了。如果按照同样的政策去执行的话，那我觉得Sora是完全不值得期待的一个东西。</p>



<p>现在可以用的视频大模型其实已经不少了，甭管是Runway还是国内能够使用的吉梦。吉梦是剪映下面的字节跳动做的，效果还可以。快手做的可灵效果其实也能够使用了，甚至在剪映内部也集成了视频直接生成的这种功能。这些呢已经可以达到一部分商业使用的能力了。现在的各种亲友照片变成视频，这种内容已经有很强的传播力了。很多人会把一些过世亲友的照片拿出来，给他一个提示词，说这个人现在笑了，这个人人说话了，这个人吃东西了，这个已经有一定的传播力了。</p>



<p>数字人呢也已经开始赚钱了，甭管是数字人直播，还是数字人带货，或者数字人骂街，这块已经可以跑了。YouTube上呢，有很多的这种预告片开始吸引流量。什么意思？就是他经常告诉你说，现在哪一部大片后边要拍续集了，大家赶快去看呀。当你看了以后，发现是有很多的前作剪辑，然后再加上一些AI生成的内容，拼凑起来的一个，你也不能说他粗制滥造，有的做的还可以。</p>



<p>这样的一个视频，我已经被这种视频骗了好多回了。我现在再看到说哪个大片要准备拍续集，上预告片了，我先得看谁发布的。如果不是原来那个电影的制作公司发布的，我就直接跳过不看了，很容易上当受骗。现在很多的漫画小说详解相关的视频在抖音、快手上也开始在盈利赚钱了，所以这块呢已经走入了商业化。</p>



<p>那么，以假乱真也造成了很多的困扰，比如说雷军骂人、于东来骂人，甚至还有人把那个德国选择党的女党首，她的这个视频配上中文上来，讲一些比较激烈的这种话语，这个也是很容易骗到人的。下一步的AI工具会是什么样的呢？第一个专业应用级别呢，可能还是会有专门的人去做，就像现在我们，比如说在视频领域里头，我的这个视频处理都是用剪映的，但是呢也还是有很多专业团队会使用一些更复杂的这种视频工具。</p>



<p>Sora以后可能就会向那个方向发展，说我们干脆就永远不再向公众开放了，就是直接签约给这些电影公司，让他们去用，用完了以后出了所有东西，你们自己负责任，跟我就没有关系了。这是一种方式。半专业的应用呢肯定还有待增强，普通人使用Sora这样的模型，或者使用其他的刚才我们说的吉梦也好，可灵也好，还是挺难使的。他们可能还需要在用户交互上，或者是工具上还要有待增强，这个大模型本身他们自己慢慢训就可以了。</p>



<p>至于个人应用的话，是否能够爆发，我觉得应该还是可以爆发的，就是使用AI大模型生成视频的这种个人应用。但是呢，这个可能距离我们还稍微远一些。这种半专业应用的话，应该正在路上。在吉梦也好，可灵也好，都在做手机APP，网站的这种Web APP也在尝试，跟各自的这种视频编辑工具进行结合，这一块的话，有可能会最先让我们看到成绩。</p>



<p>至于Open AI下边该干嘛去呢，我们已经讲了，Open AI的Sora已经不值得期待了。Open AI作为行业的排头兵老大，它有一个非常重要的职策，就是为整个行业指明下一个方向。他指明了Sora这一个方向以后，大家就赶快都去出了一堆可灵也好、吉梦也好、Runway、Pica，一大堆的这样的视频模型就出来了。他说我们要做O1这种可以带推理的模型，然后一堆的推理模型在这个后边就出来了。</p>



<p>今天我还装了一个叫QWQ通义千问做的推理模型，在32B的参数下吧，可以达到甚至是部分超越O1 mini的这个能力了。他现在还达不到O1 Preview的这个能力，但是可以达到O1 Mini的能力，只有32B，那这个还是非常棒的一个东西。所以再往下一个方向到底是什么？虽然很多的厂商也在尝试去摸索，寻找新方向，但是呢都没有Open AI指的方向。他只要摇旗呐喊，大家就直接跟风往上冲，没有这种号召力。</p>



<p>所以，我们期待Open AI可以给大家指明下一个方向。等指明了以后，全世界的厂商再顺着这个方向往前跑。好，这是今天讲的故事。感谢大家收听，请帮忙点赞、点小铃铛，参加Discord讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>字节跳动准备分拆懂车帝上市，甩掉这个鸡肋。作为中国互联网行业最后的狠角色，字节跳动为什么要分拆懂车帝，这是准备割韭菜吗？</title>
		<link>https://lukefan.com/2024/06/16/%e5%ad%97%e8%8a%82%e8%b7%b3%e5%8a%a8%e5%87%86%e5%a4%87%e5%88%86%e6%8b%86%e6%87%82%e8%bd%a6%e5%b8%9d%e4%b8%8a%e5%b8%82%ef%bc%8c%e7%94%a9%e6%8e%89%e8%bf%99%e4%b8%aa%e9%b8%a1%e8%82%8b%e3%80%82%e4%bd%9c/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 16 Jun 2024 00:40:52 +0000</pubDate>
				<category><![CDATA[字节跳动，故事多]]></category>
		<category><![CDATA[AI技术]]></category>
		<category><![CDATA[IPO]]></category>
		<category><![CDATA[PICO]]></category>
		<category><![CDATA[Pre IPO]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[VR技术]]></category>
		<category><![CDATA[中国经济]]></category>
		<category><![CDATA[互联网巨头]]></category>
		<category><![CDATA[互联网广告]]></category>
		<category><![CDATA[互联网行业]]></category>
		<category><![CDATA[产业趋势]]></category>
		<category><![CDATA[产品定位]]></category>
		<category><![CDATA[企业估值]]></category>
		<category><![CDATA[企业兼并]]></category>
		<category><![CDATA[企业发展]]></category>
		<category><![CDATA[企业战略]]></category>
		<category><![CDATA[企业文化]]></category>
		<category><![CDATA[企业社会责任]]></category>
		<category><![CDATA[创业故事]]></category>
		<category><![CDATA[创新挑战]]></category>
		<category><![CDATA[剪映]]></category>
		<category><![CDATA[品牌建设]]></category>
		<category><![CDATA[商业模式]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[市场分析]]></category>
		<category><![CDATA[市场变革]]></category>
		<category><![CDATA[市场监管]]></category>
		<category><![CDATA[市场竞争]]></category>
		<category><![CDATA[并购整合]]></category>
		<category><![CDATA[懂车帝]]></category>
		<category><![CDATA[战略调整]]></category>
		<category><![CDATA[扣子]]></category>
		<category><![CDATA[技术创新]]></category>
		<category><![CDATA[技术投资]]></category>
		<category><![CDATA[投资决策]]></category>
		<category><![CDATA[投资回报]]></category>
		<category><![CDATA[抖音]]></category>
		<category><![CDATA[持续增长]]></category>
		<category><![CDATA[数字化转型]]></category>
		<category><![CDATA[易车网]]></category>
		<category><![CDATA[未来汽车]]></category>
		<category><![CDATA[汽车之家]]></category>
		<category><![CDATA[汽车媒体]]></category>
		<category><![CDATA[汽车广告]]></category>
		<category><![CDATA[法律风险]]></category>
		<category><![CDATA[消费者行为]]></category>
		<category><![CDATA[消费趋势]]></category>
		<category><![CDATA[狠角色]]></category>
		<category><![CDATA[理想汽车]]></category>
		<category><![CDATA[用户流量]]></category>
		<category><![CDATA[直播销售]]></category>
		<category><![CDATA[直销模式]]></category>
		<category><![CDATA[竞争优势]]></category>
		<category><![CDATA[竞争对手]]></category>
		<category><![CDATA[管理策略]]></category>
		<category><![CDATA[经济洞察]]></category>
		<category><![CDATA[网红营销]]></category>
		<category><![CDATA[股东价值]]></category>
		<category><![CDATA[股市表现]]></category>
		<category><![CDATA[股民权益]]></category>
		<category><![CDATA[融资]]></category>
		<category><![CDATA[豆包]]></category>
		<category><![CDATA[资本运作]]></category>
		<category><![CDATA[集体诉讼]]></category>
		<category><![CDATA[集梦]]></category>
		<category><![CDATA[鸡肋业务]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1316</guid>

					<description><![CDATA[大家好，欢迎收听“老范讲故事”的YouTube频道。今天，咱们来讲一讲懂车帝——字节跳动的一块鸡肋。字节跳动， ... <a title="字节跳动准备分拆懂车帝上市，甩掉这个鸡肋。作为中国互联网行业最后的狠角色，字节跳动为什么要分拆懂车帝，这是准备割韭菜吗？" class="read-more" href="https://lukefan.com/2024/06/16/%e5%ad%97%e8%8a%82%e8%b7%b3%e5%8a%a8%e5%87%86%e5%a4%87%e5%88%86%e6%8b%86%e6%87%82%e8%bd%a6%e5%b8%9d%e4%b8%8a%e5%b8%82%ef%bc%8c%e7%94%a9%e6%8e%89%e8%bf%99%e4%b8%aa%e9%b8%a1%e8%82%8b%e3%80%82%e4%bd%9c/" aria-label="阅读 字节跳动准备分拆懂车帝上市，甩掉这个鸡肋。作为中国互联网行业最后的狠角色，字节跳动为什么要分拆懂车帝，这是准备割韭菜吗？">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="字节跳动准备分拆懂车帝上市，甩掉这个鸡肋。作为中国互联网行业最后的狠角色，字节跳动为什么要分拆懂车帝，这是准备割韭菜吗？" width="900" height="506" src="https://www.youtube.com/embed/bt-mvRkDvnA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听“老范讲故事”的YouTube频道。今天，咱们来讲一讲懂车帝——字节跳动的一块鸡肋。字节跳动，现在算是国内互联网行业里头，仅剩的几大狠人中的一个，而且是最狠的一个。现在，中国互联网行业里，还剩哪些狠人啊？美团、拼多多、瑞信、滴滴，字节跳动还剩这些。那你说，原来BAT啊，小米啊，这些怎么没有了呢？啊，这个呢，现在都已经进入了正常的公司发展状态，已经没有那种狠劲了啊，就是那种破釜沉舟，跟你不死不休的那个状态，现在已经没有了啊。刚才我们讲的这几个，还是有这种心态的啊。你们谁撞上这样的公司，还是要掂量掂量的。而在几个狠人中间，字节跳动是最狠的一个。为什么呀？他最大对吧？他的估值是2,250亿美金，年营收破千亿美金，而且他的营收是超过腾讯的啊，所以他呢，有这个狠的资本。</p>



<p>那你说，什么样叫狠啊？大开大合，壮士断腕，这个才叫真正的狠角色。花大价钱出去买公司，花大价钱出去买流量，去跟其他公司起脸开大脸，对脸的啊。你买多少流量，我买的比你多；你挣多少钱，我挣的比你少，我亏钱，我把你干死啊，这个才叫狠公司。字节跳动这些年来，干了哪些特别狠的事情呢？第一个上来还把投资部干掉的就是他。因为很多的大公司都是有投资部的，玩资本运作，去并购公司，搞这样的事情。字节跳动说我不干了啊，投资部不要了，整个开掉，解散掉。</p>



<span id="more-1316"></span>



<p>他投一个，到现在很多的大厂还不敢像他这么干。然后，花大钱去买牧童，上来是：“我要做游戏，我把整个牧童买下来；我要去做VR，我把PICO整个买下来。”而且，当时PICO是国内做VR里头最贵的一个标的，整个买下来。买完了以后说：“哎，不行啊，这事搞不定。”卖了，或者直接把这人都裁了，不干了。这个，才是真正的叫大开大合。一般的上市公司是不敢这么干的，因为你一旦干这种事情，你在股市上是没法交代的，你的股价会上蹿下跳的。敢这样去干的话，一定是什么没上市的公司。所以，刚才咱们讲这几大狠人里头，美团、拼多多是上市公司，瑞幸跟滴滴呢，是上过市还想着再上，只有字节跳动是没上过市了。所以，刚才我们讲的这些大动作，只有他敢干，别人不敢。而且，敢对着美国政府在那起脸开大的，也只有他。美国政府说：“你TikTok不许来了啊。”字节跳动说：“来，我起诉你。”刚才咱们讲的其他公司，都没有他这么敢干。哎，所以，字节跳动是国内仅剩的几个互联网狠角色里头，最狠的一个。</p>



<p>那么，懂车帝呢，是整个字节跳动里头一块鸡肋。什么叫鸡肋啊？叫食之无味，弃之可惜。这个故事应该是来自于三国演义，人家说：“哎，今天晚上的这个呃口令是什么呀？”鸡肋啊，说：“那么我们要该退兵了啊，食之无味，弃之可惜。”这个话是杨修说的吧，然后被曹操咔砍了。砍完了以后说：“算了，退兵吧。”退吧，是这样的一个故事。</p>



<p>那你说懂车帝这样的一个汽车媒体，由字节跳动自己亲手孵化出来的，怎么就变鸡肋了呢？首先，我们要先看他处理的方式啊，咱们再去研究说，这个业务到底是怎么回事。如果这个业务做不起来，那直接砍了就完了。比这个玩意值钱的，像PICO什么的，说干掉也就干掉了，不同说干掉也就干掉了。这个其实都是要比懂车帝可能还要更贵一些的项目，直接咔嚓干掉不玩了。那么现在这个画呢，还留下来，就是说他还挣钱。你真把他砍了呢，又觉得不是那么甘心。你说我留在字节里头接着培养，接着往前走呢，他又长不大。所以，只能拆出来，算了你分家另过去吧，等长大的咱们接着干啊，比如说什么能长大剪映啊，这个接着还能长大，咱接着干。对吧，其他的就算了啊。所以，他叫积累。</p>



<p>那么，咱们再看一下这个行业。中国呢一共有三大汽车媒体，懂车帝呢，现在是最大的一个。剩下两个呢，一个叫汽车之家，一个叫易车网。对吧，这个问题就出在这了。字节跳动做任何事情都是舍我其谁，对吧，我一定要把剩下人全干死，只有剩我一个的。但是现在呢，这三家挺在这，谁也干不掉谁了。对吧，虽然懂车帝你是最大了，但是你说我现在想把呃汽车之家干掉，想把易车网干掉，他也干不掉啊。这是怎么回事呢？第一个原因，汽车之家跟易车网都上市了，都已经IPO成功了。IPO成功的公司，它后边是有一个比较大的资金池了。</p>



<p>你可以通过股市，可以通过各种的金融手段，还是可以拿到钱的。而且，它的制值也是确定的。像这种没上市的公司呢，比如说像字节跳动这种，我们还可以跟他玩一下，叫什么叫市梦率啊。以后上去以后，值老鼻子钱了，上万亿美金，大家去猜吧。但是上了市的公司，你比如说有一公司跟你同行业的，已经上市了，那么这样的情况，你就只能跟大家玩市盈率了。人家跟你的业务是一样的，看看你有多少用户，他有多少用户，你有多少营收，他有多少营收。人家值多少钱啊，那你也值这么多钱啊。他就是这事是缩死了的。</p>



<p>现在呢，汽车之家30亿美金，一车网10亿美金，也就这样的一个状态了。你说你懂车帝，就算你的流量稍微大一点，你能值个四五十亿美金，到头了也不会有更多的变化了。你再能去动用的更多的资金，也基本上在这个范围内了。而且呢，你真要搞鱼死网破啊，俩上市公司说我质押股份，我去借钱，我去折腾什么事，我还可以给你折腾一下。这是啊，第一个说他干不掉另外两个公司的原因。剩下的原因是什么呢？跟这行业有关系。大家知道互联网行业，特别是中国互联网行业，靠什么玩意起来的？靠汽车广告，对吧。美国互联网行业，它可能靠色情啊，靠什么其他东西起来的。但是中国互联网行业，最早的金主就是汽车广告。为什么呢？因为别的广告，你比如买房子，房子是很贵，但是呢，房子的成交很慢。</p>



<p>它不是那么容易进行冲动消费的。而且，房子这个东西，虽然是中国整个的经济支柱，但是呢，它很分散。你说我是一个北京人，我跑到上海去买房，这不是疯了吗？所以，它的广告效应并没有那么强。虽然房地产商也打广告，但是绝对没有汽车厂商打那么疯狂。剩下的，你说再便宜的东西，你说我卖个冰箱，卖个彩电，你说你一冰箱彩电几千块钱，你能花多少钱去打广告？一个几十万的汽车，而且我们可以全国各地的去买去，那这玩意互联网广告没跑了。所以，中国的互联网行业，基本上靠这玩意起来了。早期的几大门户网站，搜狐、网易这些，基本上最大的、最挣钱的板块就是汽车板块。这个事情呢，就决定了，中国汽车广告对于整个的互联网行业，它的价值是非常非常高的。所以呢，汽车流量的成本是非常贵的。我买流量，我可以买游戏流量啊，买一个游戏用户，买一个汽车用户，买一个什么其他用户分开的，汽车用户的价格是最贵的。你要想在这跟大家赤膊上阵厮杀一把，这个成本非常高啊。这是第一个原因，也是整个的汽车广告塑造出来的，中国互联网造成了这样的一个结果。</p>



<p>那么，另外一个原因是什么呢？汽车广告你打了半天，最终要干嘛？你得卖车呀。这几年呢，经济稳中向好，汽车市场并没有大的变化。那你说我打再多的广告，再怎么卷，折腾来折腾去，你最后还是卖这么多辆车，不能让我卖两辆车。</p>



<p>这样的情况，就真的是内卷了。你说，我把价格涨上去，你只要买了我家广告，你就可以多卖出车去。这个事呢，还是大家愿意干的。但你说，我涨了价格以后啊，就我们三家把这市场统治起来了。你涨多少钱，我也涨多少钱。咱们形成一个价格联盟。但是，涨完了钱以后呢，比如说，我买到叫购物车人线索啊，就是卖车的人形象，像这些人买的是这个东西。那买完这个东西以后呢，我一年卖的车还是这么多，甚至我卖的车可能还变得更少了。那那这事就没法挣了，谁也翻不过这个天去。那你说，在这样的情况下，有没有人上来彻底掀桌子呢？咱们老讲究颠覆式创新，我把桌子掀了，我不跟你玩这套东西了。这个有没有可能呢？也很难啊，为什么？因为前面那广告费太贵，大家就是坐在这吃，就已经能吃的这个盆满钵满了，舍不得掀这桌子。对吧，现在懂车帝坐这，他在三家里头可能吃的广告费还最多。哎，你说你把桌子掀了吧，他舍不得。所以，现在就这样的一个状态，你奈何不了别人，又舍不得掀桌子。所以，整个这个市场，对于懂车帝来说呢，也是挺鸡肋的。那现在怎么办呢？只能干一件事啊，拆分出来做Pre-IPO吧。这个融资啊，分很多轮次啊，种子轮，天使轮，A轮，B轮，C轮，D轮，后面呢，就是Pre-IPO啊，就是IPO之前再做一轮。因为他这一轮呢，你想他要七八亿美金，准备融资了以后，值30亿美金啊，就是投后估值30亿美金。</p>



<p>那你就考虑上市吧，毕竟你已经达到了30亿美金的估值，就像汽车之家一样。既然如此，上市似乎是顺理成章的一步，这实际上意味着公司正处于Pre-IPO阶段，即上市前的最后阶段。目前，吸引投资者的主要是字节跳动及其股东，如铜山和大西洋资本。他们选择投资的原因很简单：他们需要一个退出策略。投资了字节跳动，但字节跳动暂无上市计划，这使得他们难以回收投资。于是，他们看到了懂车帝即将上市的机会，决定投资懂车帝，并将部分字节跳动的股份转换到懂车帝中，以便通过懂车帝的上市实现退出，从而回收部分资金。</p>



<p>那么，懂车帝真的值30亿美金吗？作为最大的汽车媒体，它确实烧了不少钱，但如果汽车之家的估值为30亿美金，那么给懂车帝一个40亿到50亿美金的估值也还算合理。此外，字节跳动和抖音的流量对懂车帝而言是一大优势，尽管现在二者的关系在逐渐疏远，但懂车帝仍能从中获益。即使在最极端的情况下，比如整个体系推翻重建，懂车帝仍然有机会分得一杯羹，因为它原本就是从这个体系中分离出来的。所谓的“推翻重建”，指的是彻底放弃传统的汽车广告模式，不再依赖销售线索。</p>



<p>综上所述，懂车帝的上市计划和字节跳动股东的退出策略，以及它与汽车之家的估值对比，都显示了其在汽车媒体领域的独特价值和潜力。</p>



<p>给这些汽车供应商、汽车销售商，什么二手车商，我也不干这事了。咱干嘛，直接卖，咱直接对接所有的这种个人，我把所有中间商全跳过去，把这个桌子给他掀了。这条路走得通，走不通，应该能走通啊。而且现在其实很多人在向这个方向走。如果把这桌子掀了，可能啊，最后吃到这一口汤的还是懂车帝。所以他应该值这个钱。为什么说可能还是他呢？因为还有其他可能性啊，待会咱们再讲其他可能性。现在的车厂呢，已经开始在往掀桌子的方向走了。就是汽车制造厂说，我不想跟你玩这条东西，这个太累了。你们现在卷成这样，没意思了。那么汽车制造厂是怎么宣这个桌子的？老板自己下来当网红，做直播。李军坐在这做直播了，李斌坐在这做直播了，李想还没怎么干这个事啊，哪咤汽车啊，也坐在这做直播了，长城的魏建军也坐在这做直播了。那么大家往这块走了，说我们以后直销了，我们不需要这些汽车经销商，我们也不需要这些啊，分层的经销体系，对吧，我自己干了啊，我不需要你去买这些线索了。他变成这样的一个状态了，他要掀这个桌子了，准备摆脱传统的汽车媒体模式。你说做了网红，那这事不吃不着这笔钱了吗？哎，但是你想想，这些老板们做网红在哪做呀？在抖音上做，也没跑出手掌心去，还在如来佛手掌心里边啊，肥水不流外人田。懂车帝呢，有可能还能盖的上车圈其他的这些大号，比如说周鸿祎。</p>



<p>周鸿祎也在抖音里头，开直播，折腾呢。周鸿祎现在带了一堆的车圈大号，也在这折腾呢。这些人依然在抖音里头。而你只要在抖音里头晃呢，懂车帝其实还是知道一些抖音的潜规则的。啊，他比如说抖音的规定是什么样的，我要想封谁的号，想去给谁降权，应该走哪些内部渠道。这个事呢，懂车帝一定是比另外两家，就是汽车之家跟易车网要熟悉的多，因为毕竟是从一个地方出来的嘛。所以，他又依然有可能能够在掀了桌子以后，吃到这口汤。</p>



<p>有人也在想说，哎，字节跳动会不会自己造汽车去啊？为什么会有这样的想法呢？大家知道汽车之家、易车网、懂车帝三家对吧，三大汽车媒体。汽车之家的创始人呢，叫李想，后来创建了理想汽车。而易车网的创始人是谁呢？叫李斌啊，创建了未来汽车。说那你这拆开了以后，是不是想去造车呢？想太多了啊。因为字节跳动，从来不沾手比较重的业务啊。即使沾手了一些重业务，也都没讨什么好。比如说自己造这个PICO，把PICO整个收购下来，去造VR头衔，最后说实在玩不动了啊，砍了吧。为什么？他玩流量的啊，就是快枪手。做重的业务呢，一定要有耐心。而自己相对来说是比较没有耐心的。他呢，不是说造不起车啊，人家说你有200亿人民币，你才可以造出车来啊，雷军讲的还是谁讲的。但是自己手里的现金是有的，但是他没这耐心啊。你要造一个车，这可不是一朝一夕的事，需要长期的投入和耐心，显然字节跳动在这方面并不擅长。</p>



<p>真的是需要沉下心来，造个三四年。字节经常是说：“哎，我上半年试试，到下半年不行，算了，干不干了。”他是这么一个性格。那字节后边要干嘛呢？字节后边要集中精力冲AI，对吧？字节做AI的方式呢，基本上是乱拳打死老师傅的模式啊。这个以后有机会可以大家细讲。</p>



<p>现在呢，自己有集梦啊，就是剪映的。集梦是可以做视频，可以做图像生成啊，也有大量的这种内容创作的功能在里头。然后扣子啊，扣子其实还是非常好用的一个工具。有兴趣的话，可以在我的会员频道里看到扣子的课程，怎么去做AI agent啊，非常好用。</p>



<p>然后豆包啊，也是现在所有我们见过的AI助手里边，应该做的最好的一个，用户量应该也是最大的一个，叫豆包。而且呢，字节是每样东西做两遍，为啥呢？因为它还有国外的部分，TikTok跟抖音正在拆嘛，所以它任何东西都是做两份。你比如说剪映，它在国内叫剪映，在美国它也有一个名字，好像叫CapCat，曾经登上过美国iOS排行榜第一。</p>



<p>扣子它在国内有扣子，在国外呢，也有扣子啊，两边分开的。包括豆包啊，国内的叫豆包，国外叫CC啊，Cici。它每样东西做两遍，然后做完两遍以后分头去吸引用户，用户量都不小。当然了，他也有他的大公司病，是什么呢？各自为政。其实很多东西如果打通了，就这些功能内部打通了，是可以跑的更快的。但是自己说不啊，咱不打通。</p>



<p>咱们各自玩各自的，所以我说，为什么他叫乱拳打死老师傅的架势了。咱们讲回来，懂车帝，懂车帝呢，叫孩子总要长大，成人长大了分出去单过呗。但是，懂车帝最后的结局会是什么样的一种结局呢？就是慢慢长大，慢慢的跟这些另外两家汽车媒体接着在这个市场里边摸爬滚打。</p>



<p>第二种可能呢，掀桌子啊，咱们刚才讲了怎么掀这个桌子。掀完桌子以后呢，他能够继续的把这一口汤吃下去啊，这个是没准会长大。第三种可能，我觉得是最大的可能，就是桌子也掀了，但是呢，懂车帝啊，跟另外两个汽车媒体一起被掀翻在地啊。最后谁把他们吃了呢？抖音把他们都吃掉，这个可能性是比较大的。</p>



<p>为什么会是这样的可能呢？就是懂车帝在字节跳动里头的时候，都没有勇气把桌子掀过来。你出去了以后，你看着这个每个月，每年往里头进的这些广告费，卖线索的这些收入，他能有勇气把桌子掀过来吗？而且一旦上市啊，成为上市公司了，你需要为股民负责任，玩不好会被集体诉讼的一个状态，你敢掀桌子吗？</p>



<p>所以呢，后边如果真的掀桌子了，而且这个掀桌子可能性很大，那么车帝有可能会跟着桌子一起，跟着另外两件一起被掀翻在地。那你说现在把它拆出去，那不是坑人吗？啊，不要想这个事啊，现在把它拆出去，这些字节的老股东冲上去把钱投了，上了市把股民的韭菜割完了以后，这些人就都套现离场了。</p>



<p>等到那个时候，再把桌子掀过来。这大家反正愿赌服输嘛。韭菜已经割完了啊。可能这是作为字节跳动的鸡肋，懂车帝最终的一个结局啊。咱们可以拭目以待啊，看看未来怎么发展好啊。这个故事今天跟大家讲到这里，感谢大家收听。请帮忙点赞，点小铃铛，参加Disco讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>



<p>等到那个时候，再把桌子掀过来。这大家反正愿赌服输嘛。韭菜已经割完了啊。可能这是作为字节跳动的鸡肋，懂车帝最终的一个结局啊。咱们可以拭目以待啊，看看未来怎么发展好啊。<br>这个故事今天跟大家讲到这里，感谢大家收听。请帮忙点赞，点小铃铛，参加Disco讨论群。<br>也欢迎有兴趣、有能力的朋友加入我们的付费频道。<br>再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
