<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>DeepSeek大模型 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/category/deepseek%e5%a4%a7%e6%a8%a1%e5%9e%8b/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Fri, 05 Dec 2025 01:06:53 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>DeepSeek大模型 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Deepseek V3.2高分真相：我们被“遥遥领先”忽悠了？Special版跑分超GPT-5，但API成本砍半才是真杀招｜DeepSeek-V3.2、DSA</title>
		<link>https://lukefan.com/2025/12/05/deepseek-v3-2-dsa-leading-tech-gaps-analysis/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Fri, 05 Dec 2025 01:06:50 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI应用成本]]></category>
		<category><![CDATA[AI模型评测]]></category>
		<category><![CDATA[API降价]]></category>
		<category><![CDATA[DeepSeek V3.2]]></category>
		<category><![CDATA[DeepSeek V3.2 Special]]></category>
		<category><![CDATA[DeepSeek V3.2技术解析]]></category>
		<category><![CDATA[DeepSeek稀疏注意力]]></category>
		<category><![CDATA[DSA算法]]></category>
		<category><![CDATA[Gemini 3 Pro]]></category>
		<category><![CDATA[GPT-5.1]]></category>
		<category><![CDATA[SGLANG]]></category>
		<category><![CDATA[VLLM]]></category>
		<category><![CDATA[国产大模型]]></category>
		<category><![CDATA[国产算力]]></category>
		<category><![CDATA[大模型发展趋势]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[开源AI模型]]></category>
		<category><![CDATA[推理效率优化]]></category>
		<category><![CDATA[数学推理模型]]></category>
		<category><![CDATA[深度求索]]></category>
		<category><![CDATA[稀疏注意力]]></category>
		<category><![CDATA[长上下文处理]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3095</guid>

					<description><![CDATA[家人们！Deepseek V3.2 12月1号闪亮登场✨ 但R2呢？失踪人口坐实了！😂 哥们儿等了一整年，结果等来个“缝补打工人”——V3.2？纯纯的V3老底子加补丁！

重点来了‼️ DSA算法直接让成本腰斩💸 输入100万token才2块钱，比一杯奶茶还便宜🥤！实测API便宜到哭，但special版？数学界Rain Man💧——解题666，聊天只会“啊？”，社交废柴实锤（还限时12月15号！跑分王者？实战寄了😭）。

真·遥遥领先的是啥？DSA全开源‼️代码论文白给，不像美帝抠搜“不能商用”🙅‍♂️ 国产云连夜0day支持，但训模型还得跪舔英伟达😭（清醒点！基础模型该重训了）

进步了，别吹上天！这波降本增效+开源精神，值得一个赞👍 同意的扣1，不服来Battle！💥 #AI黑科技 #国产之光 #科技宅的浪漫


标题1：Deepseek V3.2高分真相：我们被“遥遥领先”忽悠了？Special版跑分超GPT-5，但API成本砍半才是真杀招｜DeepSeek-V3.2、DeepSeek Sparse Attention (DSA)、Reasoning、Open Source AI
标题2：Deepseek V3.2 vs GPT-5：看似反超，实则“麻袋片绣花”？DSA降本50%难掩架构硬伤，真能撼动Gemini 3.0 Pro？｜DeepSeek-V3.2、AI Model Benchmarks、Gemini 3.0 Pro、GPT-5
标题3：别只看跑分！Deepseek V3.2最大贡献是DSA算法，API成本直降50%，这才是真正的推理效率革命｜DeepSeek-V3.2、DeepSeek Sparse Attention (DSA)、Inference Efficiency、LLM技术分析
标题4：英伟达警报拉响？Deepseek V3.2的DSA算法完全开源，LLM推理成本普降50%，国产算力要躺赢了？｜DeepSeek-V3.2、DeepSeek Sparse Attention (DSA)、Open Source AI、Inference Efficiency
标题5：深度拆解：Deepseek V3.2领先的是算法而非模型，Special版跑分神话背后，DSA技术才是真正王牌｜DeepSeek-V3.2、DeepSeek Sparse Attention (DSA)、Reasoning、AI Model Benchmarks
简介：DeepSeek-V3.2发布引发热议，但其“遥遥领先”的真相远比跑分复杂。本次更新的核心是革命性的开源技术DeepSeek Sparse Attention (DSA)，它将API成本砍半，极大提升了推理效率。然而，模型本身仍基于旧架构，其惊人的AI Model Benchmarks主要来自一个无法泛用的“特化版”。与Gemini 3.0 Pro等新一代模型相比，V3.2在降本增效上取得突破，但在基础模型创新上仍有差距。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Deepseek V3.2高分真相：我们被“遥遥领先”忽悠了？Special版跑分超GPT-5，但API成本砍半才是真杀招｜DeepSeek-V3.2、DSA" width="900" height="506" src="https://www.youtube.com/embed/5hgwZf-tYAw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_1.JPEG" alt=""/></figure>



<h1 class="wp-block-heading">Deepseek V3.2，12月1号发布了。是不是又遥遥领先了呢？</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>Deepseek V3.2的发布应该是12月1日。我们始终没有等来心心念念的Deepseek R2。在今年春节的时候，深度求索突然发布了Deepseek R1，算是扔下了一颗深水炸弹，把整个AI圈都震动了，甚至还造成了英伟达股价的闪崩——一段时间内闪崩吧。甚至老黄都跑出来喊，说：“Deepseek发布对我是利好，你们不要卖英伟达的股票。”大家就一直等着这个R1，既然这么厉害，咱们上R2。但是等了这么久，都没有等来R2。</p>



<h2 class="wp-block-heading">Deepseek V系列版本回顾</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_2.JPEG" alt=""/></figure>



<p>下面呢，我们来捋一下Deepseek V系列的版本到底是怎么样的一个发布过程。</p>



<ul class="wp-block-list">
<li><strong>Deepseek V3 (去年12月26日发布):</strong> 这是非常非常重要的一个版本。实际上我们后面看到的所有版本，包括R1，都是在Deepseek V3的基础上进行微调、进行蒸馏、进行强化学习。今天发布的Deepseek V3.2，也依然是在这个版本的基础上做出来的。</li>



<li><strong>Deepseek V3-0324 (3月24日发布):</strong> 主要是在专项能力上做了一些增强，比如说编代码或者写文章。</li>



<li><strong>Deepseek V3.1 (8月21日发布):</strong> 主要是工程化和智能体方面做了增强。因为当时大家都要去做AI agent，而之前的版本在AI agent这一块都比较弱。</li>



<li><strong>Deepseek V3.1 Terminals (9月22日发布):</strong> 这个版本叫V3.1的终极版，实际上是对V3.1做了一些修复和精调，并告知这是V3.1的最终版本。</li>



<li><strong>V3.2 EXP (9月29日发布):</strong> 一个实验版本，在V3.1终极版的基础上加入了DSA技术。最主要的变化是降价，直接把API调用的价格砍了一半。</li>



<li><strong>Deepseek OCR (10月20日发布):</strong> 一个很小的模型（约6G），用于图片解释，效果很好。</li>



<li><strong>maths VR (11月27日发布):</strong> 专门做数学推理和数学证明的一个版本，在各种数学题测试中评分非常高。</li>



<li><strong>Deepseek V3.2 正式版 &amp; V3.2 special 特别版 (12月1号发布):</strong> 本次发布的主角。</li>
</ul>



<span id="more-3095"></span>



<h2 class="wp-block-heading">V3.2，是不是遥遥领先了呢？</h2>



<p>那么这一次的V3.2，是不是遥遥领先了呢？各种评测数据确实非常亮眼，但是呢，我们要看到它的评测数据里头实际上是有两个数值的。一个数值呢是Deepseek V3.2做出来的，一个数值呢，是Deepseek V3.2 special做出来的。</p>



<p>它的Deepseek 3.2 special这个版本，确实是比Gemini 3 Pro、GPT5.1都要强，但是我们大部分人，实际上没有办法去使用这个V3.2 special。它这个正式版的V3.2呢，属于是接近了GPT-5.1的水平，各项评分都很近，有个别的超过吧，大部分呢跟GPT-5.1很近的一个位置。</p>



<p>甚至呢，还有人出来讲，说GPT到现在3周岁了，现在Deepseek反超回来了。很多人就讲说GPT被Deepseek吓到了，其实跟Deepseek没关系，主要是被谷歌吓到了。</p>



<h3 class="wp-block-heading">V3.2 Special：一个跑分工具？</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_3.JPEG" alt=""/></figure>



<p>你说V3.2的special版本的评分，不是已经超越了GPT-5.1和Gemini 3 Pro了吗？你怎么还说跟国外有差距呢？首先要注意，V3.2 special是一个基本上没法用的版本。为什么呢？</p>



<p>就是它的推理、它的运算确实非常强，但是呢，它在工具调用、AI agent的使用这一块都不能用，因为它就是会解数学题，它是一个偏科天才，除了写数学题之外，他啥也搞不了。所以呢，他做各种的评测分数很高，但是你实际使用他，你是没法使的。</p>



<p>而且Deepseek V3.2 special这个版本只能用到12月15号，在这之后这个接口就直接废掉了。所以那个产品就是跑分用的，不是给大家用的。发布V3.2 special呢，也是有一点点赶鸭子上架。当然有很多人说，这个就是Deepseek R2了。</p>



<h2 class="wp-block-heading">V3.2的核心技术：DSA算法</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_4.JPEG" alt=""/></figure>



<p>那么V3.2到底是怎么训练出来的呢？实际上Deepseek V3.2，是在Deepseek V3.1 Terminals这个基础上进行的继续训练，基础大模型没变。这个里边最关键的特性，就是降本增效。</p>



<h3 class="wp-block-heading">降本：Deepseek稀疏注意力算法 (DSA)</h3>



<p>它直接把成本对半砍，就是降50%的API调用成本。里边呢，使用了一个叫DSA的算法，Deepseek稀疏注意力算法。通过一个叫闪电索引的功能，它不是对文本里边的所有词进行运算和匹配，而是先评估哪一块比较重要，哪一块不太重要，我们把重要的部分拿去做下一步，不重要的部分直接扔了。通过这种方式呢，它极大的降低了长上下文的处理成本。</p>



<p>长上下文是必须的，因为AI agent需要调用工具、搜索、使用本地知识库。所以只能在长上下文的基础上想办法去降低成本。</p>



<h3 class="wp-block-heading">增效：与V3.1对齐并强化</h3>



<p>在实现了DSA的算法之后，它还要跟Deepseek V3.1 Terminals这个最终版进行对齐，确保性能不能退步。这就是这一次V3.2在V3.2 EXP的基础上做的一个很重要的更新。</p>



<p>所以呢，9月29号V3.2 EXP，第一件事是先把价格打下来：</p>



<ul class="wp-block-list">
<li><strong>输入 (缓存不命中):</strong> 100万TOKEN两块钱人民币。</li>



<li><strong>输入 (缓存命中):</strong> 100万TOKEN是两毛钱。</li>



<li><strong>输出:</strong> 100万TOKEN只需要3元人民币。</li>
</ul>



<p>这个价格要比我们现在能看到的各种轻量级模型都要便宜很多。</p>



<p>在发布这个版本之后呢，进行了大规模特定目标的强化学习，主要学很难解答但很容易验证的问题，特别是针对智能体（AI agent）进行数据训练。在这样的一个基础上，就得到了12月1号所发布的V3.2正式版。</p>



<h3 class="wp-block-heading">V3.2 Special的由来</h3>



<p>它呢，是在V3.2 EXP base的这个基础上，拿着前面我们讲的，专门做数学题证明的maths VR这个版本去做后续的训练。V3.2 special实际上就是V3.2 EXP base这个版本加上maths V2这个版本合成的一个版本。所以它特别擅长做数学题、做各种长推理，但其他方面能力很弱。</p>



<h2 class="wp-block-heading">真正的领先之处：开源贡献</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_5.JPEG" alt=""/></figure>



<p>我们现在所说的领先，是真正做出来的这些改变、这些创新，对于整个行业是不是有贡献。Deepseek R1对于整个行业是有巨大贡献的。而这一次的DSA确实是非常先进的，也对整个行业是有贡献的。只要是对整个行业有贡献，我们就认为它已经遥遥领先了。</p>



<p>而且DSA算法呢是完全开源的，有论文、有模型、有代码，而且可以商业化使用。不像美国那些公司抠抠搜搜的。</p>



<p>当然，这个东西也不是Deepseek凭空发明的，它是在很多前人的基础上做的改进和应用。就像瓦特改进了蒸汽机一样，DSA也是如此。类似的稀疏注意力算法有很多论文，但是真正大规模的验证和使用，就是Deepseek的DSA这个算法。</p>



<h3 class="wp-block-heading">其他AI公司如何应用DSA？</h3>



<p>美国公司也有类似技术，OpenAI的算法没有公开，谷歌应用的则是一个叫“环注意力”（ring attention）的算法，可以支持到100万TOKEN的上下文。</p>



<p>DSA是完全开源的，其他模型也可以使用，但需要经过几个步骤：</p>



<ol class="wp-block-list">
<li><strong>模型结构改造：</strong> 在原来模型的基础上加上闪电索引。先进行“稠密预热”，保持主干注意力完全稠密，冻结原来的参数，只训练这个闪电索引。</li>



<li><strong>稀疏训练：</strong> 打开DSA开关，解冻主干的参数，和闪电索引一起训练，并确保输出结果跟原来是一样的。</li>



<li><strong>蒸馏和强化学习：</strong> 在针对写作、数学、代码、AI agent搜索等等特定领域进行特训，再用特定的模型生成数据，蒸馏主模型。最终把推理和AI agent这些行为进行强化学习和人类的对齐。</li>
</ol>



<p>所以DSA对整个行业是有巨大推动作用的，这才是真正的遥遥领先。</p>



<h2 class="wp-block-heading">Deepseek V3.2的局限与不足</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_6.JPEG" alt=""/></figure>



<p>它还是有很多地方比GPT-5.1、比Gemini 3 Pro要差很远的地方。</p>



<ul class="wp-block-list">
<li><strong>纯文本模型：</strong> 完全没有多模态能力，给它图片它是不认识的。</li>



<li><strong>基础模型陈旧：</strong> Deepseek V3.2也是在一个去年12月26日发布的Deepseek V3的基础上，不停的打补丁补出来的一个版本。这个叫“麻袋片绣花，底子太差”。就像OpenAI发现GPT-5（在GPT-4基础上微调）无法追赶从头训练的Gemini 3 Pro一样，要想再追上，必须得退回去把基础模型再提升一步。</li>
</ul>



<p>所以，Deepseek下一步肯定还是要先把Deepseek V3.2的special合并进去，但更重要的是需要重新预训练一个全新的V4模型，把多模态等能力加进去。</p>



<h2 class="wp-block-heading">对国产算力的真正影响</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-v3-2-dsa-leading-tech-gaps-analysis/blog_7.JPEG" alt=""/></figure>



<p>Deepseek V3.2是不是对于国产算力有了巨大的帮助？国内云确实是在第一时间就去支持了，他们叫0 day支持。</p>



<p>现在大模型推理普遍使用VLLM或SGLANG这样的开源框架，它们最初是为英伟达显卡设计的。Deepseek发布DSA后，第一件事就是修改这两个框架，让它们能很好地支持DSA。国内的算力卡厂商，如华为升腾，也要到这个系统上去打补丁，适配自己的硬件。</p>



<p>华为云等厂商已经完成了这个适配工作，这意味着，以后想把模型部署到中国的公司（如XAI），可以直接购买华为升腾的芯片而无需修改代码。</p>



<p>所以国内的云和算力卡确实又行了，它们可以在相同的算力下处理更多的信息。从推理这件事情上来说，我们不再那么依赖英伟达的显卡了。但是，如果想预训练一个全新的大模型，还是要去买英伟达显卡。目前国内普遍的做法是让大模型出海，在海外去做训练。</p>



<h2 class="wp-block-heading">Deepseek V3.2带来的市场影响</h2>



<ul class="wp-block-list">
<li>AI应用在国内产业的普及与渗透速度会进一步的提升。</li>



<li>一些新的模型，甭管是国内的还是国外的，都会去进行DSA升级，以降低成本。</li>



<li>使用中文推理的美国大模型会变多起来，因为它们很多是在中文开源模型基础上做后训练的。</li>
</ul>



<h3 class="wp-block-heading">对英伟达的影响：短期承压，长期利好</h3>



<p><strong>短期来看是利空。</strong>&nbsp;DSA让推理成本下降，完成同样的任务只需要一半的显卡，这会减少对英伟达通用算力的需求。</p>



<p><strong>但长期来说依然是利好。</strong>&nbsp;首先，行业认识到必须重新预训练基础模型，这离不开英伟达显卡。其次，AI应用渗透率上升，会推动整个行业越过盈利点，对算力中心的需求可能实现真正的爆发。</p>



<h2 class="wp-block-heading">总结</h2>



<p>Deepseek V3.2，12月1日正式发布了，评分很高，但对于实际使用和感受其实没有那么大意义。因为他真正评分很高的那个版本，是一个偏科的数学天才。V3.2正式版他的评分并没有那么高。而且Deepseek V3.2是在V3的基础上继续缝缝补补出来的，想要继续前进已经很难了，必须要去对基础模型重新做预训练了。DSA这个算法确实对整个行业做出了贡献，非常非常有价值，在这一点上，你说它遥遥领先没有任何问题，但是距离真正的全线领先，还有很大的差距。</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>好，这就是咱们今天要讲的故事，感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>10个月血赚近9000万，最后被罚1.77亿！DeepSeek背后程序员如何利用“老鼠仓”掏空公司？监管漏洞全解析｜DeepSeek US China fine prison</title>
		<link>https://lukefan.com/2025/11/26/deepseek-front-running-penalty-china/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 26 Nov 2025 00:57:51 +0000</pubDate>
				<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[AI量化交易]]></category>
		<category><![CDATA[China stock market]]></category>
		<category><![CDATA[DeepSeek AI]]></category>
		<category><![CDATA[Deepseek老鼠仓]]></category>
		<category><![CDATA[financial regulation]]></category>
		<category><![CDATA[中国股市]]></category>
		<category><![CDATA[交易策略]]></category>
		<category><![CDATA[内幕交易]]></category>
		<category><![CDATA[刑事责任]]></category>
		<category><![CDATA[利用未公开信息交易罪]]></category>
		<category><![CDATA[同频交易]]></category>
		<category><![CDATA[巨额罚款]]></category>
		<category><![CDATA[幻方量化]]></category>
		<category><![CDATA[林艺平]]></category>
		<category><![CDATA[程序员炒股]]></category>
		<category><![CDATA[老鼠仓]]></category>
		<category><![CDATA[职业操守]]></category>
		<category><![CDATA[证券市场禁入]]></category>
		<category><![CDATA[证券监管]]></category>
		<category><![CDATA[证监会处罚]]></category>
		<category><![CDATA[量化交易]]></category>
		<category><![CDATA[金融犯罪]]></category>
		<category><![CDATA[金融科技]]></category>
		<category><![CDATA[非法所得]]></category>
		<category><![CDATA[风险控制]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3019</guid>

					<description><![CDATA[Deepseek背后的老鼠仓，被罚了1.77亿人民币，这到底是个什么神奇的故事？ 大家好，欢迎收听老范讲故事的 ... <a title="10个月血赚近9000万，最后被罚1.77亿！DeepSeek背后程序员如何利用“老鼠仓”掏空公司？监管漏洞全解析｜DeepSeek US China fine prison" class="read-more" href="https://lukefan.com/2025/11/26/deepseek-front-running-penalty-china/" aria-label="阅读 10个月血赚近9000万，最后被罚1.77亿！DeepSeek背后程序员如何利用“老鼠仓”掏空公司？监管漏洞全解析｜DeepSeek US China fine prison">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="看起来是收割散户，其实在掏空东家！DeepSeek母公司程序员利用未公开数据，10个月赚走近9000万，谁是真韭菜？｜DeepSeek China fine AI prison users data" width="900" height="506" src="https://www.youtube.com/embed/6li95OzVe2s?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-1.JPEG" alt=""/></figure>



<h1 class="wp-block-heading">Deepseek背后的老鼠仓，被罚了1.77亿人民币，这到底是个什么神奇的故事？</h1>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<h2 class="wp-block-heading">天价罚单：1.77亿的老鼠仓</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-2.JPEG" alt=""/></figure>



<p>2025年11月11日发了一个公告，这是浙江证监局行政处罚决定书，处罚一个叫林艺平的人，艺术的艺，平衡的平。这个人呢，是在幻方量化里边做老鼠仓。罚多少钱呢？没一罚一，就是把他的非法所得没收掉，再罚以同样的钱。非法所得8,857.69万元，这哥们还是很能挣钱的。你把这个8,000多万要交出来，再罚8,000多万，加一块1.77亿人民币。</p>



<h2 class="wp-block-heading">处罚算重还是算轻？</h2>



<p>是不是付钱了？没有进一步的消息。付不出来就强制执行呗，上你们家卖房卖车去。如果转移资产，就是要判刑。如果实在付不了的话，估计是会挂失信人员的。然后还处以了5年证券市场禁入，这五年里头不能给人当CFO了。你说一程序员是给谁当CFO去？但是他也不能到股市里边去开户。</p>



<p>那你说这对于他来说，处罚是不是太轻了一点？大概率呢，还会移交公安机关起诉判刑，但是这个呢，并没有在这一次的信息里头披露出来。</p>



<p>其实这还不是中国最大的老鼠仓，但基本上已经算是第一梯队了，绝对是战绩彪炳。最大的呢，应该是华宝基金原基金经理蒋宁的一个案子，用了9个亲友账号，盈利1.14亿，最后呢是有期徒刑5年。所以林艺平大概率最后还是要去坐牢的，只是目前呢，是浙江证监局行政处罚决定书公布出来了，应该是后边还有法院再去判决，所以当前并不确定后续的处理方式。</p>



<h2 class="wp-block-heading">主角登场：幻方量化与“外包程序员”林艺平</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-3.JPEG" alt=""/></figure>



<p>Deepseek背后就是幻方量化。那你说他们家确实炒股是有两把刷子。犯事的这段时间呢，是2022年11月16日至2023年9月6号。如果大家有记忆的话，当时应该是中国股市震荡下行期。但是即使在这样的一个阶段里头，幻方量化还是挣到钱了，就是他们通过量化的交易方式挣钱了。</p>



<span id="more-3019"></span>



<h3 class="wp-block-heading">林艺平到底是谁？</h3>



<p>那你说林艺平到底是干嘛的呢？这哥们是个外包，是技术服务外包。对于技术服务外包来说呢，监管是比较松的。你一个量化基金里头这帮做策略的人，他们是需要去考基金从业资格证书的，要去受到基金从业资格的这种法律约束，或者叫道德约束。像我是考过基金从业资格证书的，我们考证书的时候一共是三门考试，第一门呢就是职业道德，第二门呢是一些跟交易相关的东西，第三门呢是私募股权基金。其实第三门是相对来说比较容易的，第一门就是背各种各样的东西，说什么能干，什么不能干。真正去做量化的人，你肯定是要去背这些东西的。但是呢，做技术支持的人是不需要的。</p>



<p>林艺平他的职位跟职责是什么呢？他的职位呢，叫做交易策略前端开发。你说前端开发不是写网页的吗？不太一样。他的职责是产品风控、部分产品交易测试、决策下单和监控，他做这些工作。</p>



<h3 class="wp-block-heading">量化交易中的“前端”是什么？</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-4.JPEG" alt=""/></figure>



<p>那他到底干嘛的呢？量化交易里头的前端跟后端，跟我们一般写程序不一样。我们写程序，后边做具体操作的叫后端，前面做界面这帮人，叫前端，甭管你是写网页的，还是在APP上写界面的，写交互画按钮的，这帮人他们叫前端。在量化交易里头呢，这个后端是定策略的：我今天要买茅台，茅台上去了以后，我什么时候把它卖掉，多少钱以内我去买。这帮人叫后端，具体执行呢就是前端的。</p>



<p>但是前端都是程序员。你说这个量化不应该自动执行吗？这个真不是。你这边决定了我明天要买，比如说5,000万手的茅台，你如果真的前面这个机器自动就上去挂单去了，你肯定买不着，而且等你把这5,000万手收齐了的时候，这价格都涨飞了呀。所以呢，他们需要干嘛呢？需要把这单子拆了。</p>



<p>你说我现在需要5,000万手茅台了，后端把这个策略制定好了。而且呢，他不是说买5,000万手茅台，他是有一整套的策略：哪天到哪天之间买5,000万手茅台，这些茅台应该是在一个什么样的价格区间之内，如果这个价格超过了，我们就放弃购买，然后撤单或者是做什么。这样的东西，它是有一个完整的策略，发到这个林艺平手里了。林艺平要干的活就是把它拆开，几百手几千手，把它拆成一大堆小碎单子，然后拿这些单子扔到市场上慢慢去买去。这些单子呢，就会快速的去成交，而且成交的过程中呢，对于整个股价的影响呢，没有那么大。他就负责干这个的。他也会有一个比较缓慢的交易过程，这几单交易成功了，那几单交易成功了。而且这5,000万手，你也不能说我按照一个统一的价格，“啪”一把都扔出去了。他可能也是按照一个梯度的价格往上扔，他是这样来去操作的。这就是他们这个前端跟后端之间的差异。</p>



<h3 class="wp-block-heading">犯罪行为的定性</h3>



<p>这次的处罚通知上呢，有一句很关键的话，就是什么呢？叫<strong>“实质上实施了私募基金从业人员的履职行为”</strong>，算是犯罪行为的一个定性。你按道理来说呢，后端这帮做策略的人，你要干类似这样的活的话，那你肯定是老鼠仓。而且这些人呢，是经过了基金从业资格考试的，有相应资格的，他学过这个道德规范和职业操守的，属于叫知法犯法，这肯定是行的。</p>



<p>林艺平这种程序员呢，他按道理说是没有接受相应的培训的。国内的量化基金呢，也比较喜欢用这种方式，就是把技术这块外包到外边去。为什么？因为他们就不需要受到这些约束的，这种管理也相对来说比较灵活，你也可以给他们发比较高的薪水。现在还有一个叫限薪令的东西，你不能给从业人员发太高的薪水。你说每天手里头拨拉拨拉手指头，就上亿上亿的跑，自己的月薪可能是几万块，这些人心里会不平衡的。但是这些程序员，你是可以给他发比较高的薪水的，不受的这个控制。但是呢，林艺平“实质上实施了私募基金从业人员的履职行为”，所以你要受这个约束。</p>



<h2 class="wp-block-heading">犯罪手法揭秘：他是如何赚钱与如何被抓的？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-5.JPEG" alt=""/></figure>



<p>具体林艺平是怎么挣钱的呢？他又是怎么被发现的呢？这个我估计大家会比较好奇。</p>



<h3 class="wp-block-heading">什么是“老鼠仓”？</h3>



<p>首先咱们讲，他这个犯罪行为呢叫老鼠仓。那么老鼠仓叫什么呢？老鼠仓的一个学名叫什么呢？叫<strong>“利用未公开信息交易罪”</strong>。有一些未公开信息，比如说幻方量化在后边制定了一个交易规则，这个是对普通大众来说是不知道的。你利用这样的一个规则去交易的话，这个呢就叫做老鼠仓了。那你说我不自己交易，我偷偷告诉别人行不行？这玩意不就不叫老鼠仓了吗？这叫<strong>“泄露内幕信息罪”</strong>，这个东西呢叫内幕交易。所以呢，他有另外一个罪名。你自己交易了就叫老鼠仓，没有自己交易，我告诉别人了，叫内幕交易。</p>



<h3 class="wp-block-heading">10个月赚近9000万，需要多少本金？</h3>



<p>那么赚钱的过程呢，这哥们是10个月赚了接近9,000万，一天赚25万，这个还是速度很快的。他的本金到底有多少？很多人很关心这件事。我到底拿多少钱，10个月里就能挣出这么多钱来？是不是我手里也得有好几亿的资本？这一定是谁家有钱的少爷吧？不是这么回事，这个不需要多少钱。</p>



<p>为什么呢？你想他头一天，发现要下单茅台了，咱们接着说这5,000万手茅台的故事。头一天发现了，然后呢就进去埋伏了。他可以先下单，我先去买个几百手。然后呢，我这边开始执行5,000万手的这个过程。执行完了以后，到第二天，T+1嘛，这个股价呢还是会有一点点波动，比如有个2%、3%的波动，甚至呢有一些其他的消息爆发出来了，你可能有个5%、6%的波动。这个时候，你再把手里这个筹码卖掉，T+1，你等于5%就到手了，有可能是这样的。然后呢，到T+2的时候，你又变出现金来了，你又可以去买了。它是这样的一个过程。而且呢，它还可以去融资融券，就是它效率可以更高一些。它呢，挣钱不靠本钱多，它靠滚得快，它是这样的一个盈利方式。</p>



<h3 class="wp-block-heading">具体操作：利用“拆单”的时间差</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-6.JPEG" alt=""/></figure>



<p>它的核心就是拆单。刚才咱们讲前端干这个活，大家就已经明白了。我就可以在拆单的过程中，自己先去下。我这边拆单的这个策略是10块钱多少手，10块零5毛多少手，10块1、11块多少手，他是这样的一个拆法。在这边拆的过程中，我那边下一个指令就直接9块9，我先整个几百手出来再说。等这边做完了以后，后边我再去套现离场。他是这样的一个挣钱过程。</p>



<p>它整个的操作呢，并不需要特别复杂的一个技术，因为这个东西呢叫做量化交易，并不是高频交易，他的交易的频率没那么快。一个策略下来了以后，他拆完单然后呢审核，审完了以后，是不是拆单都符合要求，然后要去开始执行。执行完了以后他要干嘛？监控。拆完了单以后，到底有没有成功的把我需要的这个筹码买下来？或者说现在这个价格是不是已经异常波动了？波动了以后，我是不是要去调整这个拆单？比如说我原来是从10块买到12块，要把这个5000手都买进来，我这可能只买了2,000万手，就已经涨到12了。那得看后边该怎么去处理，这个呢都是这个林艺平要去干的事情。所以呢，整个的执行过程很慢，他就完完全全可以同时摸出手机来，或者再找一台电脑，给他自己的账户下个单子，这个事是完全来得及的。</p>



<p>而且这个过程呢，也不能保证你铁赚钱。有的时候中国股市也说不好，你没准今天我去买了，按道理说明天应该涨，但是可能隔夜美股大跌，你第二天就直接赔在里头。幻方自己也不能保证每一笔单子都赚钱，林艺平呢也不能保证都赚。但是呢，他算了完10个月以后，盈亏都抵了以后，还赚了接近9,000万。他挣钱的速度，肯定是比幻方量化快无数倍的，因为他的这个效率会更高一些。</p>



<h3 class="wp-block-heading">他赚的到底是谁的钱？</h3>



<p>那你说这玩意到底赚的是谁的钱呢？好多买卖股票的人说，是不是赚的我的钱？赚的其实是幻方量化的钱。按道理来说呢，幻方量化把这个策略偷偷地执行下去的时候，市场上应该没有任何的响动，我偷偷地进去吸收筹码，或者偷偷地出去卖，应该是这样的一个过程。但是呢，他提前进去埋伏好了，我可以在幻方量化买的时候呢，把自己手里的筹码卖给他。甚至呢，他可以等着幻方量化整个把这个价格拉起来以后，在幻方量化要出场之前，他先跑。他是可以来做这样的事情的。所以他挣的钱是幻方量化的钱。</p>



<h3 class="wp-block-heading">天网恢恢：老鼠仓是如何被发现的？</h3>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-7.JPEG" alt=""/></figure>



<p>时间线，刚才咱们也讲了，2022年11月16号到2023年9月6号，也就是十个月左右的时间。2023年9月6号就离职了。那为什么到2025年11月11号才发公告呢？整个这个事情核实起来也还是需要一段时间的。应该是2023年9月6号这个事就已经东窗事发了。到底是幻方量化内部监控把他逮着了，还是证监会把他逮着了，这个事呢现在没有公开出来。但是一定当时就已经把他抓住了，这两年就是在做案情核实和资金账户的这些确认，现在就可以尘埃落定，把他宣布出来。</p>



<p>那你说这玩意咋逮着的呢？他偷偷在里边干这个活，怎么逮着他？还记得刚才咱们讲那个最大的案子吗？就是1.14亿那个案子，9个亲属账号。所以这种东西逮着他的核心原因，就是账号的原因。这个林艺平呢，他使用了4个账号。</p>



<ul class="wp-block-list">
<li>第一个呢叫林某志，也姓林吧，有可能是他父亲的账号，或者是他的一些亲属的账号吧。林某志在国金证券开了一个账号，在东莞证券开了一个账号，这是两个。</li>



<li>还有一个呢叫何某龙，在东莞证券开了一个账号，在中信证券开了一个账号。</li>



<li>一共就这4个账号。</li>
</ul>



<p>那你说有这4个账号他交易他的呗，怎么就能被发现呢？发现这种老鼠仓的核心关键点在于什么？他挣钱之所以能够挣到这么多的原因，是因为他频率高。今天买明天卖，后天再买，然后再卖，他是这样的一个快速的交易过程。那么呢，就会发生一个问题，叫<strong>“同频交易”</strong>。就是你发现这4个账号跟幻方量化的这种几百亿的大账号总是同频交易。幻方量化买的时候，他总能提前买；幻方量化卖的时候，他能提前卖；或者是幻方量化买完了以后他就卖；等到幻方量化要卖的时候呢，他没准还跑去融资融券去又跟着折腾一把，对吧？每一次操作的规律都差不太多，这个叫同频交易。</p>



<p>因为中国是很严格的证券交易实名制的，所以每个人手里不可能掌握太多的账号。特别在这几年，各种的断卡行动了以后，就会变得越来越难，所以大家手里账号都是有限的。这些人都是很贪婪的，一定是有几个账号跟这种大账号之间会发生同频，这就会容易被抓住。</p>



<p>另外一个抓住它的方法是什么呢？就是<strong>IP地址跟Mac地址</strong>。Mac地址就是我们的硬件，比如手机，你的每一个手机上是有Mac地址的。我们的每一个路由器、每一台电脑的网卡上，都是有Mac地址的，全世界唯一的。IP地址，你比如说像林艺平这样的，他上哪下单去？他只能是坐在幻方量化的办公室里头下单。所以他下单的这个IP地址，也是在幻方量化的办公室里头，跟他执行交易策略的这个IP地址是一样的。这个也是很容易被抓住的。应该就是通过这两个方式，就是同频交易和IP地址、Mac地址的方式，直接把他逮着了。</p>



<h2 class="wp-block-heading">普遍现象与监管红线</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-8.JPEG" alt=""/></figure>



<p>中国股市在这块，确实要比美国股市要严格。因为美国股市并不要求绝对穿透，或者穿透到头这样的方式。中国股市是要求绝对穿透，无限穿透，一层一层一直穿透下去，穿透到最后每一个人的身份证号码上。所以你想去靠账号去玩这个事不那么容易。</p>



<p>那你说这是不是一个普遍现象呢？是不是所有这些做量化交易的人，最后执行的这些前端人员，都会干这个活呢？首先说这个事确实不少见，国内外都有，美国也有，中国也有，全世界哪个国家都会出现类似这种情况。反正出现了就抓呗，这也没什么办法。</p>



<p>真正的红线呢，其实是<strong>“对打”</strong>。刚才我们讲了，量化基金它会把一个大单拆成好多小单，自己去慢慢执行去，这件事情呢它是允许的。前提是什么？你是到市场上对着公共池子去交易，这个事就没问题。但一旦是说我操纵了好几个账号，自己跟自己去交易了，这个事就不行了。你像林艺平这个其实也是这样，他操作了一边是幻方量化的账号，一边是他自己的林某志和何某龙的账号，自己跟自己交易了，这个事是不允许的。在任何一个国家的证券市场里头，这件事都是违法的。</p>



<p>为什么这个是违法呢？因为股市这个东西，特别是股票的价格呢，它是怎么来的？这个东西叫“价格发现”。就是我这没卖出去，交易没有成功；我这要买了没买到，这个交易没有成功，它对于股价是没有影响的。那边正好有人要卖，我们交易成功了，那么股票的价格就会发生变化，我发现了新价格。那如果是一些小盘股，自己买自己卖，突然就做出了一笔交易来，这个股票的价格就会发生异常波动。小盘股嘛，他一般交易也没有那么多，或者交易的没有那么频繁，他就会发生这种异常波动，就有可能会吸引别的人进来买，等别人吸引进来了以后，他自己就跑路了。这个其实是很多游资干的活。最近呢，也爆出一些国内游资玩不下去了，他们就跑到美国去。因为刚才咱们讲了，国内搞断卡行动以后，游资手里边的账号也没那么多了，他们就去美国炒。但是到美国以后呢，做过分了以后会被SEC处罚。这种案件最近也是不断地被爆出来。</p>



<p>全球的股市呢都有监控功能，发现这种同频交易就会触发监控。国内呢，实名制还要更严格一点；美国呢，是诉讼门槛更低一些。什么意思呢？就是国内呢，因为是实名制，所以呢你只要干类似的这种事情都会被发现。但是呢，是不是会起诉，会不会真的把你抓出来，还得看您上头是不是有人。这个玩意就跟西游记似的，孙悟空从头到尾打了半天，最后没打死几个人，真正的罪大恶极的，实际上都是什么神仙的坐骑、菩萨的坐骑，都是这玩意。所以您最后是不是会被抓住，跟你做什么没关系，看你上头有没有人才有关系。而美国呢，它没有实名制，发现要稍微难一点。但是呢，他们起诉是很容易的，你只要是这个股价异常波动了以后，下边人都是可以起诉的。如果起诉你，你这受到处罚的几率会更大一些。大概就是差在这。</p>



<p>真正老鼠仓的重灾区，其实并不是股市，而是什么呢？而是币市，就是区块链这帮人，他们是真正的重灾区。为什么？因为他们没有监管。他们的这些交易都是去中心化的，虽然现在有中心化交易所，但是这个交易所也不是说所有的人都在我这执行这一套东西。咱们一帮的中心化交易所，也是在去中心化的链上去执行的。所以在他们这里头呢，是没有总体监管的。像美国有SEC监管，中国有证监会监管，你说我在链上交易，币安能监管吗？监管不了。他只能监管说我自己内部的人，你不要干这个事。因为这个事呢，对于名声的损害是很厉害的，一旦你内部的人干这件事的话，大家就不敢把钱存在你这了。</p>



<h2 class="wp-block-heading">故事的启示</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/deepseek-front-running-penalty-china/blog-9.JPEG" alt=""/></figure>



<p>最后总结一下吧。这个故事告诉我们了几个道理。</p>



<ul class="wp-block-list">
<li><strong>第一个道理：信息就是钱。</strong>这个林艺平他偷的是什么？偷的是幻方量化的信息，偷的钱其实也是幻方量化的钱。信息就是钱。</li>



<li><strong>第二个道理：不是自己的钱不要伸手。</strong>但是你说我玩币圈的，你自己看着办，这事跟我们没关系。但你说我在证券市场上，在股票市场玩这个事，只要是达到一定的频率阈值以上，就一定会被抓。那你说到底是到多少阈值以上会被抓？没有人会告诉你这个具体的数字的，这个大家自己小心就完了。</li>



<li><strong>最后呢：市场有风险，投资需谨慎。</strong>我们这各种这消息、那消息满天飞，我今儿买点这个，明天卖点那个，有的是人在里头去赚一些奇奇怪怪的钱。</li>
</ul>



<p>今天这个故事就讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>AI炒币一周战报：DeepSeek凭低频策略狂赚36%，GPT-5惨亏28%，Gemini更是亏掉30%！｜Alpha Arena、AI trading、LLM、Crypto trading</title>
		<link>https://lukefan.com/2025/10/22/alpha-arena-llm-crypto-trading-performance/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 22 Oct 2025 00:52:28 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[区块链很疯狂]]></category>
		<category><![CDATA[AI trading competition]]></category>
		<category><![CDATA[AI实盘交易]]></category>
		<category><![CDATA[AI投资]]></category>
		<category><![CDATA[AI盈利能力]]></category>
		<category><![CDATA[Alpha Arena]]></category>
		<category><![CDATA[Autonomous trading]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Crypto trading]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[LLM benchmark]]></category>
		<category><![CDATA[nof1.ai]]></category>
		<category><![CDATA[Real money trading]]></category>
		<category><![CDATA[交易策略]]></category>
		<category><![CDATA[加密货币投资]]></category>
		<category><![CDATA[去中心化交易所]]></category>
		<category><![CDATA[大模型炒币]]></category>
		<category><![CDATA[投资机器人]]></category>
		<category><![CDATA[数字货币]]></category>
		<category><![CDATA[模型性能对比]]></category>
		<category><![CDATA[永续合约]]></category>
		<category><![CDATA[量化交易]]></category>
		<category><![CDATA[金融科技]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2725</guid>

					<description><![CDATA[本节目以2025年10月20日战报为基础录制，21日，收益大幅回调。DeepSeek以10.55%的收益率，依然霸榜；Claude还是比较稳，9.17%的收益率，屈居第二；Grok不是很定，但依然盈利，以1.36%的收益，勉强保持不亏钱；Qwen亏13.78%；Gemini亏36.25%；GPT成了亏钱王，超过Gemini，亏39.02%。

🔥卧槽！AI炒币大战爆笑实录！DeepSeek V3.1 狂赚36%吊打全场，GPT-5亏到妈不认，Gemini 2.5 Pro 直接疯魔44次交易！💸

兄弟们！纽约大学搞了个真金白银实验，1万刀丢给AI炒币。结果DeepSeek 6天梭哈ETH、SOL、XRP，15倍杠杆稳如量化老炮，狂赚36%！Grok-4靠X情报秒抓反转也赚30%，但GPT-5居然逆势死扛做空，亏28%原地躺平😭，Gemini更离谱——44笔交易狂交矿工费，亏光30%+！笑死，这哪是AI交易？纯纯“焦虑小学生”乱点鼠标啊！🤯

专才杀疯了好吗！DeepSeek出身量化基金，纪律严明少交易多赚钱💪，通才GPT活该栽坑！信息源更是王炸：X数据=印钞机！但兄弟们清醒点：AI能赢，你的钱可不是测试账号！上次我炒币亏到吃土，现在连AI都比我强，扎心了💔

炒币有风险，梭哈需谨慎！点赞保命，下次吃瓜群见👇 #AI暴打人类 #韭菜自救指南

标题1：AI炒币一周战报：DeepSeek凭低频策略狂赚36%，GPT-5惨亏28%，Gemini更是亏掉30%！｜Alpha Arena、AI trading、LLM、Crypto trading、DeepSeek、Benchmark
标题2：别再迷信通用大模型了！GPT-5炒币为何惨败给专才DeepSeek？这场真实资金对决戳破AI神话｜Alpha Arena、AI trading、LLM、Crypto trading、Real money、Grok
标题3：交易越少赚越多？DeepSeek几次出手狂揽36%利润，Gemini狂操作44次反亏30%，策略差异惊人｜Alpha Arena、AI trading、LLM、Crypto trading、Performance
标题4：行业洗牌已开始！DeepSeek凭专业背景稳坐冠军，Grok靠独家信息紧追，谁将主宰未来交易？｜Alpha Arena、AI trading、LLM、Crypto trading、Grok、Leaderboard
标题5：这场AI炒币大赛的3个残酷真相：专才碾压通才、信息源是王道、高频交易等于自杀式亏损！｜Alpha Arena、AI trading、LLM、Crypto trading、Real money、nof1.ai
简介：一场备受瞩目的AI炒币实验Alpha Arena，让各大模型（LLM）用真金白银（Real money）展开对决。结果出人意料：专才模型DeepSeek凭借量化策略大赚36%夺冠，而GPT-5和Gemini则巨亏。这次AI trading的真实性能benchmark，揭示了纪律与信息源的重要性，也暴露了通用模型在专业金融领域的短板。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="这场AI炒币大赛的3个残酷真相：专才碾压通才、信息源是王道、高频交易等于自杀式亏损！｜Alpha Arena、AI trading、LLM、Crypto trading、Real money" width="900" height="506" src="https://www.youtube.com/embed/zAMuY_ho3WQ?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>在炒币这件事上，DeepSeek完胜GPT和Gemini。</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>最近有一件事闹得沸沸扬扬，也就是Alpha竞技场。有一个叫NOFE.AI的实验组织，他们组织了一场由大模型炒币的一个实验。这个实验室的组织者呢，是纽约大学机器学习领域的一位博士候选人，应该算是一个学术组织，并不是一个炒币的机构。他呢，想要让大模型使用真金白银，直接在币市里边去进行竞技，而不是去做什么模拟题，做各种什么模拟盘，直接真金白银开干。</p>



<p>比赛呢，是从10月17日开始，每一个大模型给1万美金的启动资金，到现在呢，胜负已经非常明显了。DeepSeek V3.1完胜，他挣的钱最多。Grok-4紧随其后，也是盈利的。盈利的曲线呢，跟DeepSeek V3.1很像，但是这里呢，并不是因为Grok-4抄了V3.1，或者在DeepSeek的基础上去训练出来的，而是什么呢？就是你市场本身是有一个波动曲线的，他们只要采用相近的策略，他们盈亏的曲线就会比较接近。</p>



<p>再往后呢，是Claude sonnet 4.5，它表现得呢要稍微差一些，但也是盈利的。Qwen3 MAX也参加了，稍微地赚了一点点，大概是挣了几百美金吧，基本没赔。有一个对照组，对照组是什么呢？就是买入比特币直接持有，因为你总要跟市场的大势去进行比较嘛。这个组呢，是挣得要更少一些，大概挣了300多美金。Qwen3 MAX大概挣了700多美金，所以Qwen3 MAX还是跑赢了持币观望组的。</p>



<span id="more-2725"></span>



<p>剩下的就是亏损组了。GPT-5亏损极其严重，没多长时间，不到一个礼拜，大概亏了百分之二十几的钱出去。当然还有比它更惨的，Gemini 2.5 Pro，直接亏得连他妈都认不出来了，直接亏了30%多进去。</p>



<p>那么这个实验是怎么设计的呢？大家都比较关心吧。他首先是给每一个大模型1万美金的启动资金，这些大模型可以自己去决定，在这个去中心化交易所里边，自由地用这种杠杆去交易6支加密货币的永续合约。</p>



<p>这里头有几个关键词，咱们要稍微解释一下。首先6只加密货币：比特币、以太坊、索拉纳、币安币、狗狗币和瑞波币。这6只币相对来说，还是比较大众一点的吧。然后呢，它是在去中心化的交易所里边去交易的。你比如像币安，像其他的一些大的这种交易所，都是中心化交易所。中心化交易所等于是在一个中心化交易所自己内部的服务器上去进行交易撮合、去进行配对，它的交易速度是很快的。而在去中心化交易所里头，你需要在链上直接去做交易，它的交易速度还有交易过程中的费用，这个都是不一样的。所以呢，为了公平起见，专门找了一个去中心化交易所，直接在链上开跑。</p>



<p>至于永续合约呢，大家知道这种期货合约，它一般是有一个截止日期的。比如说我买大豆，你到了那一天，你就必须要去把这个大豆拿回来，或者说你必须要在期权到期日之前，你要把它平仓掉或者处理掉。但是呢，比特币也好，以太坊也好，它并没有一个必定要到期的日子，他也没有哪天说大豆要成熟了，或者石油要真的开采出来，我要用这个东西。所以他就有这种永续合约，你可以一直看涨，一直看跌。所以他用了这样的一个交易工具，这些大模型呢，就可以在去中心化的交易所里头，用这6个币的永续化合约去进行交易，自己决定看涨还是看跌，或者是加几倍的杠杆。</p>



<p>所有的大模型呢，都是公开的大模型，没有进行过微调。你说GPT-5我想微调一下，没有那么容易。但是呢，DeepSeek因为它是开源的，这个东西是相对来说比较容易进行微调的。但实验说了，我们没有去进行任何微调，就是大家可以拿到的公开版本，我们直接就用了，然后进行统一的提示词，我们要求你干活去，要给我盈利。但是现在呢，提示词并没有公开出来，希望他们以后可以公开出这个提示词来。</p>



<p>信息输入，这个是非常大的差异。这里头呢，有两部分信息。一部分呢是相同的，就是统一地进行市场行情的结构化数据的输入。涨了、跌了，有多少买盘、多少卖盘，现在是一个什么样的行情，这个呢会有结构化数据统一地发给所有这些大模型。另外一块有差异的部分是什么呢？就是各自可以搜索非结构化的社会信息。现在有什么小道消息，市场的情绪怎么样，自己搜索去。这个就是整个的实验设计。</p>



<p>实验的过程是什么样的呢？咱们先说DeepSeek V3.1。它呢是交易很少，最主要的盈利呢，是15倍杠杆做多了以太坊，做多了索拉纳，以及做多了瑞波币，靠了这个挣了36%。一个礼拜挣了36%，真的不愧是做量化基金幻方量化出来的这个大模型，做这玩意儿绝对强。</p>



<p>第二名呢是Grok-4。他呢一开始他也认为有可能会空，但是这就是Grok-4比较强的地方，它后边是Twitter，后边是X。你在比特币市场上，或者在币圈里头有任何风吹草动，X肯定是第一个知道的，而且可以快速地知道发生了什么事情。所以呢，它非常非常精准地知道在什么时候应该转单，从空单转多单。它在发生反转的时候，快速地20倍做多了瑞波币，15倍做多了索兰娜，挣了很多钱。但是呢，他前面有一个交易时机稍微有点差距，所以他有一个做空瑞波币的这个交易呢，是给他赔了一些钱。DeepSeek和Grok都是极少交易，就是他很少做决策，很少做交易，但是呢真的很挣钱。DeepSeek V3.1挣了36%嘛，然后Grok-4挣了30%。这是一个礼拜，在这一个礼拜里头，整个的行情是有一个V型的反转，一开始暴跌，然后开始转回来。DeepSeek呢就属于是我一直相信会涨，Grok-4呢就属于很精准地通过X上面的信息，找到了这个反转的底部，非常非常精准。这个也是输入信息差异带来的这种差异。</p>



<p>再往后一个呢，Claude sonnet 4.5，它呢挣了23%，其实也还可以。一个礼拜你挣23%，你还要什么呢？他做的交易呢，就要稍微多了一点，他做了3到5次交易。他呢主要是靠杠杆做多ETH和瑞波币，靠这个来去挣的钱。</p>



<p>再往下一个，挣的钱更少一些的呢，就是Qwen3 Max。他呢挣了大概700多美金吧，他做的交易就要多一些了，他做了八次交易。这个里头就比较乱了，逻辑不是很清晰。</p>



<p>再往后一个，就是比特币买入持有的这哥们，他呢挣了383美金，也只做了一次交易，因为它就是一个对照组嘛，上来你就是把所有的1万美金都买成比特币，在整个的实验过程中跟其他人去比较。</p>



<p>下一个呢就是GPT-5了。它是1万美金进去，亏了2800美金，亏了28%。他主要的亏损交易是做空瑞波币和索拉纳，就是他在反转的时候没有发现，反转了就一直在做空，所以亏了很多钱。</p>



<p>当然亏得更多的呢，是Gemini 2.5 Pro。为什么呢？就是它反复地交易，它交易的规则非常混乱。你像前面我们讲DeepSeek V3.1、Grok-4，都属于交易很少很少的。Claude sonnet 4.5做了3到5次交易，就已经多了。像这个Qwen3 Max做了8次交易，我们就已经在说它的交易逻辑有点混乱了。这个Gemini 2.5 Pro做了44次交易，因为你在这种去中心化的交易所里边做交易的时候，你是需要去付gas费的，就是你要求别人给你打包这个交易，你是要给矿工钱的。所以你做了44次交易，就造成了巨额的亏损。他呢也还有一个盈利单，他做空狗狗币有一定的盈利，但是呢他做多瑞波币的一个交易呢，造成了巨大的亏损。他很多的亏损是由于他交易实在太频繁了。你到这个币市里头，是不能这样去交易的。</p>



<p>那么这些大模型，他们显示出来的性格上的差异是什么样的呢？刚才咱们讲是什么怎么挣钱、怎么亏钱，性格上是不一样的。</p>



<p>DeepSeek是纪律严明的量化执行者。因为它是有这个COT，也就是思考过程输出的，它告诉你我是怎么想的。上来就告诉你说，我是所有东西都做多，我认为现在的市场还可以，这个市场上没有达到我的盈亏平衡点，或者没有达到我的止损点，所以我就继续做多。他非常非常严格地在做这个量化交易的玩法，因为只有他是原来做量化交易的，所以他很熟悉量化交易到底怎么玩，他也很熟悉这种去中心化交易所交易速度比较慢、交易成本比较高的这样的一个特性。所以呢，他就很稳定地去执行这些策略，挣的钱挣得最多。所以他叫“纪律严明的量化执行者”，而且强烈看涨，就是我就认为会涨。平均是10-15倍的杠杆，交易频率是比较低的，严格的止损止盈驱动。就是它没有那么复杂的交易策略，我就是止损止盈，全市场看涨，而且很看好瑞波币，这就是它的整个交易逻辑。</p>



<p>Grok-4呢，它是敏锐的时机反转交易员。因为后边有X，这个绝对是优势，你认为它作弊都没有任何问题。它呢可以很动态地进行调整，这个是10到20倍，它比DeepSeek还要胆大。DeepSeek就是10到15倍，它是10到20倍的杠杆直接做进去。这个仓位呢可以进行动态反转，可以非常好地捕捉到市场拐点，所以更适合干这个活的可能是它。只是他可能对于量化交易，特别是在这种去中心化市场上的量化交易呢，没有DeepSeek那么熟练。</p>



<p>然后Claude sonnet，他属于谨慎的价值投资者。整个的方向上呢也是看涨，他呢是8-20倍，他也挺胆大的，加了8-20倍的杠杆。他的交易的这个频率也是比较低的，属于长线持有、交易次数较少的，集中地做以太坊和瑞波币。</p>



<p>Qwen呢，属于平衡的机会主义者。就是他乱搞，也没有什么逻辑。在这他做了8次交易，都是较短的持仓周期。所以我觉得他能够挣钱，算是一个运气吧。</p>



<p>而GPT-5呢，属于困惑的逆势交易员，就是属于没有搞清状态，始终看跌，维持了这种亏损的头寸，看空瑞波币和索兰娜，最后亏了很多钱。</p>



<p>而Gemini呢，属于叫焦虑的日内交易员。他疯狂地在那做交易，做了44次交易，做得很混乱，而且也是普遍看跌。15-25倍，也是非常胆大的一个交易者。做了44次，他是做的最高的交易次数。你看一个礼拜做这么多次交易，缺乏风控，他压根就不知道什么叫风控在里头。看空这个狗狗币，看多瑞波币，这是他的一个交易策略，或者说他的一个性格吧。</p>



<p>这是几个大模型之间的这种差异。很多人说：“这不就量化交易吗？”这不一样。大模型交易跟量化交易是有本质区别的。量化交易呢，使用的结构化数据，现在的整个的市场的交易的数据是什么样的，价格什么样的，有多少买、多少卖，过去的历史数据是什么样。他把这些东西塞到一个量化交易的系统里边去，然后呢，是由人去看新闻，给他制定量化交易的一些规则，他去按照规则去在止亏线、止盈线之间去进行操作，这个是量化交易干的活。</p>



<p>大模型交易的话，是大规模地使用非结构化的社会信息。什么叫结构化的？就是有一个表格，今天第一笔交易什么、第二笔交易什么、报价什么，这样的数据叫结构化数据。而非结构化数据，就是我们搜索回来的，直接从网页上扒回来的这个数据，或者说像Grok这样，我从X平台上直接拎回来的数据，这个就是一条一条的，可能这一条数据叫怎么跌了、怎么涨了，可能是这样的这种数据。他把这样的数据拿回来，由大模型自己去决定到底做什么样的策略，是涨是跌，它是这样来去做的，所以有非常大的区别。</p>



<p>今天呢，就是做了第一次直接由大模型真金白银地去做交易。以前没有人敢干这个事，以前大家都是做模拟盘，就是我模拟买、模拟卖，最后看一下谁赚了、谁亏了，这次就是直接上真金白银。</p>



<p>那未来会变成什么样呢？就这一次的实验对未来会有什么样的影响呢？第一个呢，是不要太担心，由大模型完全主导的交易不会马上就到来。虽然现在看到说有人能挣钱了，但是这个大模型对于整个的交易还并没有那么熟悉，未来可能还需要几个月，甚至可能需要一两年的时间，这些大模型会更加适应这种交易的动作。</p>



<p>未来人类的角色呢，会继续上行。什么意思呢？最早的时候咱们是做交易，我决定买、决定卖。再往后呢，就是制定量化的一些策略。我们有一个量化工具，由人呢，或者说叫量化分析师，去看新闻、去分析数据、去分析大家的这种情绪，去制定量化策略，然后而让量化机器人去执行。未来呢，就是人类要去为大模型制定策略。当发生什么事的时候，你应该如何去做；当发生什么样的新闻的时候，你应该如何去反应。以后可能人类会在量化交易的基础上继续向上走。</p>



<p>大模型交易呢，也会带来很多的风险。就大模型交易这个事一定会到来，谁也拦不住他，因为挣钱嘛，这个事你是拦不住他的。它会带来什么样的风险呢？第一个就是算法趋同。这个事其实在量化交易的时候就已经产生了。算法趋同什么意思？就是我发现有一个要涨的这个趋势了，或者有一个要跌的趋势了，所有的量化机器人，包括以后的大模型，可能都会产生相同的这种认知，那他们就会把这个趋势进行放大。涨还行，你要跌的话就会闪崩，直接“咔嚓”一下就崩掉了，很多人就会爆仓在里面，这个是非常非常危险的。还有什么呢？就是责任不清晰。原来我们即使使用量化交易，也是有量化交易员他来承担责任。而未来的话，你是由大模型来去确定要去买还是要去卖，那你挣了、亏了，这个到底算谁的？这块呢，也还需要再去明晰一下。所以监管部门又有得头疼了。</p>



<p>好，最后总结一下。这是第一次真金白银的大模型对抗，而且呢我们发现专才还是有用的。其实这个实验呢，颠覆了我的一个认知，我原来一直认为，只要模型变得越来越大，这种通才才是未来的一个方向。但是这一次的比赛让我们知道了，专才是有效果的。像DeepSeek这样的专才，他就是做量化出身的嘛，所以他对于整个的量化交易规则，对于整个量化的这种执行过程和这种去中心化交易所这种低效率、高成本的这种交易的节奏把握得非常好，他就胜出了，超过了所有的其他大模型。所以专才依然是有效的，即使大家以后没有专才大模型，你也完全可以用这种开源模型去进行微调，这件事还是有效的。</p>



<p>下一个告诉我们的事情是什么？特定的信息源是非常有效果的。下一个胜出者是Grok-4，它靠X上这种非常敏感的信息波动，比这个DeepSeek挣得虽然稍微少一点点，但是也是非常挣钱的。</p>



<p>最后提醒大家，炒币有风险，入市需谨慎。大模型是别人的，炒币的真金白银是自己的。</p>



<p>好，这个故事就跟大家讲到这里，感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deepseek V3.1 引爆A股！神秘代码 UE8M0 揭秘，华为升腾背后的“国运”豪赌</title>
		<link>https://lukefan.com/2025/08/24/deepseek-v3-1-%e5%bc%95%e7%88%86a%e8%82%a1%ef%bc%81%e7%a5%9e%e7%a7%98%e4%bb%a3%e7%a0%81-ue8m0-%e6%8f%ad%e7%a7%98%ef%bc%8c%e5%8d%8e%e4%b8%ba%e5%8d%87%e8%85%be%e8%83%8c%e5%90%8e%e7%9a%84/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 24 Aug 2025 00:41:25 +0000</pubDate>
				<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI大模型]]></category>
		<category><![CDATA[AI科普]]></category>
		<category><![CDATA[AMD]]></category>
		<category><![CDATA[A股]]></category>
		<category><![CDATA[Deepseek V3.1]]></category>
		<category><![CDATA[FP8]]></category>
		<category><![CDATA[H100]]></category>
		<category><![CDATA[H800]]></category>
		<category><![CDATA[MindSpore]]></category>
		<category><![CDATA[MXFP4]]></category>
		<category><![CDATA[UE8M0]]></category>
		<category><![CDATA[九九乘法表比喻]]></category>
		<category><![CDATA[二级市场]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[华为升腾]]></category>
		<category><![CDATA[国产算力芯片]]></category>
		<category><![CDATA[国运级产品]]></category>
		<category><![CDATA[寒武纪]]></category>
		<category><![CDATA[工具调用]]></category>
		<category><![CDATA[技术脱钩]]></category>
		<category><![CDATA[技术路线之争]]></category>
		<category><![CDATA[摩尔线程]]></category>
		<category><![CDATA[概念股]]></category>
		<category><![CDATA[模型量化]]></category>
		<category><![CDATA[混合精度训练]]></category>
		<category><![CDATA[矩阵乘法]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[股票投资]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[裹小脚比喻]]></category>
		<category><![CDATA[计算精度]]></category>
		<category><![CDATA[谷歌TPU]]></category>
		<category><![CDATA[资本市场]]></category>
		<category><![CDATA[马赛克比喻]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2480</guid>

					<description><![CDATA[兄弟们，DeepSeek V3.1一出：圈内淡定，圈外股民疯了，公众号一句“UE8M0+FP8适配国产芯”，A股起飞📈。UE8M0是啥？=给模型打最厚马赛克🧱：少细节、少搬运、快又省，带宽紧张时真香。亮点：工具更能打，Agent友好；上下文128K⚙️🚀。但别神化，整体提升不跨代，“吊打”同行还早🤯。更刺激的是“裹小脚”路线🧦：训练用FP16/FP8，事后量化成UE8M0，配昇腾+MindSpore飞；英伟达/AMD就用FP8版。总结：这波=技术叙事+国运想象，爽点拉满也有风险。你站FP8稳扎稳打还是UE8M0极限拉扯？评论区见，点个赞我继续翻译AI黑话😅

Deepseek V3.1 引爆A股！神秘代码 UE8M0 揭秘，华为升腾背后的“国运”豪赌

1. UE8M0 究竟是什么？Deepseek V3.1 “裹小脚”豪赌国产芯片，是国运还是翻车？
2. Deepseek V3.1 引爆A股！神秘代码 UE8M0 揭秘，华为升腾背后的“国运”豪赌
3. 三分钟看懂 UE8M0！Deepseek V3.1 为何选择“技术裹脚”？深度解析国产大模型的阳关道与独木桥
4. 国运级大模型来了？Deepseek V3.1 绑定华为升腾，UE8M0 是技术创新还是饮鸩止渴？
5. Deepseek V3.1 深度解读：UE8M0 为何被称为“马赛克”？国产AI芯片路线之争，这波是豪赌还是妙棋？

简介:
DeepSeek V3.1 发布引爆热议，其核心技术 UE8M0 究竟是为国产算力芯片铺路的国运级创新，还是一次危险的“技术裹小脚”？本期视频将用“马赛克”、“九九乘法表”和“裹小脚”三个形象的比喻，为你彻底讲明白这个让股市疯狂、却让技术圈谨慎看待的神秘格式。

我们将深入探讨 UE8M0 的技术本质——一种为适配华为升腾等国产芯片而设计的极限低精度量化方案。它如何通过牺牲精度来换取在带宽受限芯片上的高效推理？为什么说 Llama、千问等主流大模型都无法直接使用这种技术，而 DeepSeek 必须在训练之初就进行特殊架构设计？这种另辟蹊径的技术路线，是否会开启国产大模型与世界主流（如 FP8、MXFP4）分道扬镳的道路？

这不仅是一次技术尝试，更是一场关乎未来的“道路之争”。观看本期视频，我们将为你深度剖析 UE8M0 背后的技术原理、商业逻辑与深远影响。如果你对AI前沿、国产芯片发展与商业趋势感兴趣，请务必点赞、订阅并开启小铃铛，加入我们的讨论！

###
#DeepSeek #AI大模型 #国产芯片]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Deepseek V3.1 引爆A股！神秘代码 UE8M0 揭秘，华为升腾背后的“国运”豪赌" width="900" height="506" src="https://www.youtube.com/embed/WMzsxCtaDPU?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>Deepseek V3.1发布，很多人应该都有疑问，UE8M0到底是个什么东西？这个国运级的大模型，到底有没有翻车呢？</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>DeepSeek V3.1发布，为什么会墙内开花墙外香呢？大家说这东西在国外也没多火。咱们讲的墙内开花墙外香，并不是说国外火，而是在圈外火。什么意思呢？就是在真正大模型圈里，其实大家并不怎么说这个事，但是在炒股票的这帮人面前，一下就火了，国产算力芯片一把就飞了。</p>



<p>到底是一个什么样的情况？首先呢，Deepseek V3.1在性能上其实并没有特别显著的提升，所以一帮真正去研究大模型的人，或者去研究AI的人，只能在那尬吹，说这个好像强了一点，那个好像强了一点，但其实都并不明显。它的编程能力呢，确实应该有所上升吧，但是你说现在就可以吊打Claude Sonic 4，这个我觉得有些言过其实了。上下文现在是128K了，在Deepseek去年12月份发布的V3版本以及1月份发布的R1版本的时候呢，它的上下文都是64K的。到V30324和R10528这两个版本呢，就已经升级到128K了，所以这一次的V3.1依然是128K。工具调用上应该是真的增强了，比原来的V3增强了，也更加符合AI agent的一个需求，这个就是他的一个主要的优势。</p>



<span id="more-2480"></span>



<p>所以为什么这东西一开始拿出来，大家没有觉得他怎么样，然后突然怎么就爆发了呢？一句话让二级市场直接就疯了。8月21号，Deepseek公众号上有一句话直接引爆A股。玩模型或者说玩AI应用的人，是不会太去看这个公众号到底写啥的，但是这些炒股的人不一样，人家天天盯着这个公众号，一个字一个字在那抠。</p>



<p>这句话说的是什么呢？V3.1使用了UE8M0和FP8规模的参数精度，为了适配未来的国产算力芯片。有这样的一句话在里头，那这还不赶快冲上去？而且在传播的过程中呢，FP8这个词呢，在后续的流传中就变得时隐时现了，大家不再提这个FP8了，主要都去强调这个UE8M0了。一堆人就问说这玩意到底是个啥呀？这么神奇的东西吗？甚至寒武纪就直接涨停板了。</p>



<p>下边呢，咱们来解释一下UE8M0到底是个啥。这个难度很大，因为我自己在数学这一块也没有多强，而且还想把它尽量地解释得通俗易懂一点，这个对于我来说是一个考验。如果我说了你没听懂的话，不是我没说好，是你自己智商有问题。咱们开个玩笑。</p>



<p>很多人呢，其实都搞不明白这个UE8M0是什么，但是呢都像老中医念口诀一样，上来都是这个脉怎么怎么样，应该什么君臣佐使一下，然后就开始给你开药方。念念有词以后呢，就冲进去买股票去了。</p>



<p>这个咱们解释一下，首先呢，用形象的三个词来跟大家解释一下什么是UE8M0。这三个词，第一个词叫“马赛克”。很多男生，特别是对于成人影片、日本成人影片有一些经验的这些男生，对于“骑兵”和“马赛克”这个词应该是能够有一些理解的。UE8M0呢，实际上就是一种马赛克格式，待会我们讲为什么。第二个呢，就是叫“九九乘法表”。在中国吧，大家从小就背，我们可以在某一些特定的计算里头超过老外。他们从小不背九九乘法表的这些人，就没有这个口算和速算的能力。我们从小背这个东西，我们就在某一些特定的运算里头会比他们先人一步。还有一个不是那么好听的词，但是更贴切，是什么？叫“裹小脚”。这个在满清时期，他们对汉族女性的一种残酷的压榨，要求大家去裹小脚，以小脚为美。UE8M0的话，就完完全全是符合这三个词的特性的。咱们下边一个一个给大家解释。</p>



<p>首先呢，要跟大家解释一下计算精度的演化。咱们要知道，做大模型计算，甭管是训练也好，还是后边推理也好，它最主要的一个计算叫矩阵乘法，就是把一大堆的数呢放在一个矩阵里，两个矩阵相乘，乘完了以后得到一个结果。甭管是训练也好，还是推理也好，大模型训练的90%以上的算力就在干这一件事：乘乘乘乘乘。这也是为什么他们跑到英伟达的算力芯片里面去干这个事。英伟达算力芯片非常非常多的核心，这些核心也干不了太复杂的命令，但是你让他做乘法，他还是做得很快的。所以这个东西要比咱们普通的CPU算得快很多。</p>



<p>矩阵乘法里头呢，就有一个问题，叫计算精度的问题。最标准的叫FP32，他们这个数是怎么表示的呢？第一位是符号，正数还是负数；后边呢，应该是8位吧，代表的是浮点；后边的几位呢，就是代表的一个精度。前边这个符号正负大家比较好理解，中间这一部分浮点数就意味什么呢？就是我可以表示最大和最小多少，这个是一个范围的表达。后边这个尾数呢，实际上是精度的表达，就是说我这个小数点后到底有多少位。当我们把这样的一个数字去进行乘的时候，肯定会得到一个结果。但是有一个问题是什么呢？咱们都是讲这大模型好大，有好多好多数据去进行运算的，那你说我要把这么多参数搬进去，在这个内存里跑来跑去，它就会变得非常非常消耗带宽。而在进行乘的时候，如果是两个很大的精度的数去进行乘的话，那它的对于算力的消耗也是非常非常可怕的。</p>



<p>所以大家怎么办呢？就是要降低精度。而且呢，因为大模型本身它是一个很稀疏的运算，你降低了精度以后，发现对结果的影响并不是很大嘛。现在他们用16位的，或者用一些更小的8位的，用这样的精度去计算了以后，发现好像得出来的结果跟32位的没什么太大区别，那咱们就把它降低一点呗。所以呢，大家就开始从FP32变成FP16、BF16。这里头要注意，FP呢一般都是英伟达这边去采用的一个标准，也都是一位符号，然后呢多少位浮点，多少位尾数。BF16呢是谷歌自己用的一个标准，它的浮点数要更长一些，尾数更小一点，这样的话它可以表达更大的一个数字，但是呢精度差一点，效果呢也还可以。后边呢还有FP8，FP8就是尾数更少一点，然后更多的数字去表达。后来呢，我们现在使用的大部分模型，真正去推理运算的时候，实际上都是FP8。现在的模型呢，大量的训练都是用FP16去训练的，现在也没有那么多人使用FP32去训练了。最早都是FP32训练，后来就是FP16训练，训练以后再去对这个大模型进行量化。</p>



<p>你说比在8再往下还有没有？还有，叫MXFP6和MXFP4。MX是什么意思呢？待会咱们再解释。FP4，咱们讲讲一下这个吧，它比较极端了。FP4是什么意思？就是它有一位符号，两位浮点和一位尾数。那你说我就一位尾数，这玩意算啥呀？我这要是0的话，那你前头这几位不就全废了吗？不是这么算的。如果你这个尾数是0，它代表什么呢？就是0、2、4、8。如果你这个尾数是1呢，它代表的是3、6和12。所以我们基本上这样看，FP4代表的数就是0、1、2、3、4、6、8、12。那你说就这几个数我乘来乘去，没有办法代表很多的东西，怎么办呢？不能说我整个大模型就这几个数就把它都表示了。所以呢，这个时候MX就起作用了。它呢，把这种很小范围的数呢，放在一个块里，这一个块呢有32个数，这一个块呢统一再进行一次浮点变化。这个浮点数变化呢，是写在另外一个叫做浮点位里头。那个浮点位呢，就是一个UE8M0的一个浮点位。UE8M0呢，意思是无符号的8位的浮点，没有尾数，就是这样的一个意思。它相当于什么呢？就是我们把4位4位的这种一块32个数，统一用一个浮点把它变化起来。MXFP4大概就是这么个意思。</p>



<p>哪个模型是用的这样极端的参数呢？最近公开的GPT-OSS就是用的MXFP4。而且这个里头有一点很强的是什么？OpenAI是从训练就直接使用的MXFP4，它没有经过后续量化，所以它的效果非常非常好，也极其节省内存。因为你想你一旦把精度降低了，它就可以干嘛呢？它就可以用更小的内存去存储这些数据、存储模型。然后你在进行模型运算的时候，你的显存跟你的GPU之间进行调度的内容就会变得更少，乘的时候乘得更快。</p>



<p>那你说在这个过程中，显卡或者说算力卡的公司干嘛使呢？他们就会想办法去优化。他写一些算法，或者说在里边做一些链路，让这些算法，比如说FP8的或者是FP16的这些数据，在我这做乘法和加法的时候让它变快一些。早期的显卡上是没有FP8的，有FP32、有FP16。什么时候开始有FP8呢？这个东西是在英伟达H100上出来的。BF16是只有谷歌TPU上才有，其他人不玩的东西。这个MXFP4呢，就是后来这个Blackwell黑井的显卡上是支持这种运算的。</p>



<p>在这个里头有一种比较极端的算法，就是UE8M0。就是我已经没有正负数了，全是正，我这个全是正数，里头也没有任何的这个尾数了，只有8位的指数。那么它能够代表的数是什么呢？0、2、4、8、16、32、64，它等于是这样可以上去的，可以代表很大的数字，但是呢就是完完全全没有精度了，它是属于跳跃、跳阶跳上去的。这就为什么我们讲UE8M0是马赛克。你想我有一个图片，这个图片里头呢，某一些关键部位里头就没有阶梯了，就没有很多的细节了，只剩下这种跳跃式的这种表达了，那不就变马赛克了吗？所以基本上你把它理解成一个马赛克，这个事是可以的。你说有没有这个宝马一点的？有，就是那个刚才我们讲那个FP4，它里头还有一位，它可以代表0、1、2、3、4、6、8、12，它中间还是多出一个来的，它这个码要稍微薄一点。最极端的大的厚码，就是这个UE8M0。大家可以这么去理解它。</p>



<p>Deepseek为UE8M0都做了些什么呢？首先呢，Deepseek并不是原生训练的UE8M0的大模型。它呢，是在英伟达的H800和H20上，使用FP16和FP8训练出来的一个模型。在训练完了以后呢，再专门针对UE8M0进行量化，把我原来这个训练完了结果的数据，按照UE8M0的这个方式重新量化、重新排一遍，然后拿出这样的一个小很多的模型出来。在这个专门为UE8M0进行优化的算力卡上，就可以跑得飞快。</p>



<p>UE8M0其实是有一些好处的。它好处是什么呢？马赛克虽然没有细节，但是呢它在运算的时候，内存搬运会变得非常少。你去表达同样的模型，你需要的这个数据变小了，这个是非常非常有好处的。因为咱们现在最大的瓶颈是什么？因为美国禁运，我们的算力芯片跟这些HBM芯片之间，或者说这种显存芯片之间的带宽比较低，那我们就专门优化一个这样的算法给你就可以了。但是我们要注意，就是在Deepseek发的那篇公众号里头，他写的是“我们支持UE8M0和FP8”。所以呢，现在大家去下载的Deepseek V3.1的模型里头，实际上是有两个版本的，一个版本是UE8M0的，另外一个版本是FP8的。你说我是用英伟达显卡的，我用AMD的显卡，你就用FP8的版本。你说我在国内，我要用升腾的芯片，那你可以使用UE8M0的这个版本。</p>



<p>为了适应UE8M0这种极限挑战，我要给你打马赛克，打完马赛克了以后你看了以后还觉得爽，这个是对于Deepseek来说非常非常高的挑战。那就需要干嘛呢？做专门的设计。他们在模型训练的时候做了专门优化，一方面呢是进行了混合精度的使用，就是有一些地方用的是比较高精度的，有些地方用的比较低精度的，他们专门做了这样的一个适配。然后呢，也在进行一些叫做累计误差检测。因为你想你把这个地方变成黑白的了，或者变成这种大马赛克了，那你这个误差就会变得很大，特别是需要进行多轮的矩阵计算以后的话，它的误差就会有累积的增加。Deepseek专门有一个设计，就是检测这个东西，如果误差达到一定阶段了以后，我会换一个方式重新来算一下，然后想办法把这个误差规避掉。它通过很多类似这样的手段呢，让这个模型在UE8M0上可以跑起来。</p>



<p>这里就有一个问题，就是不做特殊架构设计的大模型是不能被量化成UE8M0的。你说我现在把Llama 4拿出来，做一个UE8M0的量化行不行？做不出来。虽然大家都是在英伟达的FP16和FP8的基础上训练出来的，但是你前面没有做这些提前的准备，没有在这个架构上做特殊的设计，你是不能去做这种极端量化的。你那个打上马赛克，大家看了就没感觉了。只有Deepseek V3.1打上马赛克，还可以有一定的表达能力。</p>



<p>那为什么别人不用UE8M0呢？它呢，是需要专门修改训练架构，为极限情况进行纠偏的。这个过程呢，其实有点像裹小脚，你是必须从小抓起，等长大了再来的话，他就来不及了，已经长得比较大了，现在再去裹小脚裹不出来了。极大地增加训练的复杂度，而且呢也无法保证最后不翻车。有些人裹的一半说实在太疼了，算了我就放了吧。还有一些人真的是裹了一半完了，还留下一些残疾，最后发现也没有达到人家要求的效果。这个都是会发生的。九九乘法表也是一样，我们专门把一套特别高效的计算方式呢，把它背熟了，只有进行了同样训练的人，他才可以在某些特定领域里头极快速地去给出正确的答案来。刚才我们讲了马赛克、九九乘法表和裹小脚，其实最形象的呢就是裹小脚。</p>



<p>那么国产算力芯片跟UE8M0到底是什么关系呢？H100就开始支持FP8了，B系列呢，开始就是像什么B200这些芯片呢，开始支持MXFP4，它是向这个方向前进的。国内呢，我们是在跟随了。大部分的芯片实际上都是支持FP8的，就是按照英伟达这个路子走的，只是我们比人出的晚。H100是挺早就出来了，咱们大概是2024年、2025年新出的一些算力芯片呢，都开始支持FP8，也对FP8呢进行了一定的优化。</p>



<p>华为升腾芯片呢也是支持FP8的，但同时呢另辟蹊径，搞了UE8M0的这么一个算法出来。华为呢还出了一个叫MindSpore的开源框架，对华为芯片以及英伟达芯片进行全栈的AI应用，从推理到训练，所有的事情他都可以干。他做了这样的一个完整的开源框架。在这个开源框架里头呢，对于华为升腾芯片专门进行UE8M0的这种优化。你用传统的大模型推理框架，比如说PyTorch或者是TensorFlow，它是没有办法对UE8M0进行优化的。所以一旦你拿到的Deepseek V3.1是UE8M0量化版本的，你就只能去用华为的MindSpore。华为自己呢肯定用的是最好的。国内其他的芯片现在也开始兼容这个MindSpore，他们肯定出了芯片需要去兼容现在主流的这些开源框架，包括像PyTorch、TensorFlow，也要去支持MindSpore。他们也会对自己进行UE8M0的优化。比如说像寒武纪、摩尔线程，他们现在测试了UE8M0的计算的话，会比传统的FP8的方式呢效率要高很多，或者叫效率提升明显吧。这也是为什么大家都冲上去买寒武纪的股票。虽然华为是真正整套系统提出者，而且也是最大规模的部署者，但是呢它不是上市公司，炒股票的人就拿它没办法了。Deepseek自己也不是上市公司，炒股票的人拿它也没办法，那咱们就炒这个寒武纪就可以了。</p>



<p>国外的这些芯片像英伟达呀、AMD这些主流芯片，都没有对UE8M0进行优化。他们也可以用UE8M0版本的这个模型，但是呢可能会更慢一些，因为它还要把这些模型搬到内存里头，重新转换成FP8或者是FP16再重新计算，它有一个中间的过程就比较麻烦。但是也不用担心了，你说我现在这个是英伟达的卡，那你只需要去下载Deepseek V3.1 FP8的版本就可以去使用了。</p>



<p>那你说是不是国运？到底啥叫国运？只要带着国家转向都叫国运，还有另外一种可能吗？和国运级的升腾芯片进行绑定，那肯定是国运了。训练呢还是英伟达，推理呢专门为升腾进行了优化。后面呢就要进行道路之争了，中国人比较擅长，这个什么意思？千问、Kimi、MiniMax、豆包、智谱，这些开源模型都没有办法去做UE8M0的量化，因为他们在一开始训练的时候就没有考虑过我后边有可能裹小脚这个问题，所以他就没办法走这条路。你如果说也想去做UE8M0的这个量化的话，你就需要在训练的时候就调整，第一个很麻烦，第二个有极大的失败率。如果这就是未来的方向，那就真的是跟美国这边脱钩断链了，就是我们训练拿你这个东西继续训练下去，但是呢最后去量化和推理的版本就使用升腾了。确实在影响国运的走向，所以呢这个Deepseek V3.1确实是国运级产品。</p>



<p>未来会怎么发展呢？希望吧，股市上折腾一下就算了，大家去买买股票赚点钱，不要去真的影响未来国内大模型的走向。大家还是尽量去跟着国际主流的技术路线去走FP8的这个路线。如果你说我们要继续前进，大家可以想办法向MXFP4的方向去走，不要去走这个UE8M0的方向，这个方向就像裹小脚一样，非常非常危险的一个方向。Deepseek V3.1呢，算是做了一次尝试吧，但如果真的影响了未来国内的模型方向，不是什么好事。</p>



<p>这就是今天要跟大家讲的，希望大家能够听到一些自己原来不太理解的东西吧。好，这个故事就讲到这里，感谢大家收听，请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>德国全境禁用DeepSeek只是冰山一角？昔日我们建墙防外，今日欧美反向修墙防内，AI时代的数据主权争夺战已然打响。</title>
		<link>https://lukefan.com/2025/07/01/%e5%be%b7%e5%9b%bd%e5%85%a8%e5%a2%83%e7%a6%81%e7%94%a8deepseek%e5%8f%aa%e6%98%af%e5%86%b0%e5%b1%b1%e4%b8%80%e8%a7%92%ef%bc%9f%e6%98%94%e6%97%a5%e6%88%91%e4%bb%ac%e5%bb%ba%e5%a2%99%e9%98%b2%e5%a4%96/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 01 Jul 2025 00:44:10 +0000</pubDate>
				<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[“墙”反着修]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI禁令]]></category>
		<category><![CDATA[API]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Coze]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek封禁]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Minimax]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[中国]]></category>
		<category><![CDATA[中美科技竞争]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人工智能监管]]></category>
		<category><![CDATA[信息安全]]></category>
		<category><![CDATA[全境封锁]]></category>
		<category><![CDATA[加拿大]]></category>
		<category><![CDATA[千问]]></category>
		<category><![CDATA[印度]]></category>
		<category><![CDATA[可灵]]></category>
		<category><![CDATA[合规]]></category>
		<category><![CDATA[国际关系]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[应用商店下架]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[德国]]></category>
		<category><![CDATA[德国禁用DeepSeek]]></category>
		<category><![CDATA[快手]]></category>
		<category><![CDATA[意大利]]></category>
		<category><![CDATA[技术封锁]]></category>
		<category><![CDATA[政府禁令]]></category>
		<category><![CDATA[政府设备禁用]]></category>
		<category><![CDATA[数据主权]]></category>
		<category><![CDATA[数据出境]]></category>
		<category><![CDATA[数据安全]]></category>
		<category><![CDATA[数据本地化]]></category>
		<category><![CDATA[数据渗透]]></category>
		<category><![CDATA[数据隔离]]></category>
		<category><![CDATA[智谱AI]]></category>
		<category><![CDATA[欧盟]]></category>
		<category><![CDATA[澳大利亚]]></category>
		<category><![CDATA[科技战]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[网络安全]]></category>
		<category><![CDATA[美国]]></category>
		<category><![CDATA[美国实体清单]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[苹果]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[通义]]></category>
		<category><![CDATA[防火墙]]></category>
		<category><![CDATA[阿里巴巴]]></category>
		<category><![CDATA[隐私保护]]></category>
		<category><![CDATA[韩国]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2348</guid>

					<description><![CDATA[家人们！救命啊！德国直接把DeepSeek APP从应用商店下架了！啊啊啊啊啊啊啊！我整个人都震惊到不行！这操作简直绝了，墙要反着修了吗？！以前是我们防外面信息进来，现在全世界都要建墙防数据流出去？！这AI时代，到底还能不能好好玩了？！

先给你们划重点！德国数据保护专员直接要求苹果和谷歌下架DeepSeek APP，说是为了保护数据隐私。可问题是，APP封了，网站没封啊！德国的小伙伴们照样能上DeepSeek官网聊天、调用API，封了个寂寞有木有？！更别说意大利，直接全境封锁网站，澳大利亚、美国一些部门连开源模型都不让部署，简直是“宁可错杀不可放过”！

再说几个扎心事实：
1. 全球封DeepSeek分层级，有禁APP的，有禁网站的，还有直接不让部署开源模型的，像美国NASA、五角大楼，硬核到不行！
2. DeepSeek自己也挺佛系，压根没打算费劲去合规，爱封封去吧，我不care！意大利、德国发邮件要求数据本地化，人家直接不理，哈哈哈！
3. 数据安全这事，真没啥好办法！AI时代，“大海捞针”都不是梦，伊朗都被渗透得透透的，数据咋防啊？！

老实说，我看完这新闻整个人都破防了！AI这么牛的技术，本该让生活更方便，结果却被各种封禁、限制，隐私和创新到底咋平衡啊？！家人们，你们咋看？DeepSeek被封是保护我们，还是限制了未来？评论区聊聊呗！

最后狠狠喊一句：我不允许还有人不知道这事！德国封DeepSeek，AI大战已经开打，咱们普通人还能咋办？点赞收藏，持续关注，我会继续跟进这话题！冲冲冲！🔥

德国全境禁用DeepSeek只是冰山一角？昔日我们建墙防外，今日欧美反向修墙防内，AI时代的数据主权争夺战已然打响。

德国一纸禁令引发全球关注，德国禁用AI的浪潮似乎正以DeepSeek为起点席卷而来。然而，这次看似严厉的DeepSeek 封禁行动，实际上仅限于下架手机应用，网站和API服务依旧畅通，被指“封了个寂寞”。这背后揭示了在AI全球监管趋严的背景下，各国对数据隐私保护的深切焦虑，从意大利到美国，多国政府已采取不同层级的限制措施。事件的核心争议不仅在于数据是否回传，更触及了开源模型安全的深层问题——部分国家甚至禁止在政府设备上部署其开源模型。DeepSeek的遭遇，鲜明地反映了当前中美AI博弈的新态势：昔日我们建墙，今日西方反向筑墙，一场围绕技术主权和数据流动的全球竞赛已然拉开序幕。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="德国全境禁用DeepSeek只是冰山一角？昔日我们建墙防外，今日欧美反向修墙防内，AI时代的数据主权争夺战已然打响。" width="900" height="506" src="https://www.youtube.com/embed/N6Cz-qfWHig?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>德国全境禁用DeepSeek，以后这墙要反着修了吗？</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。2025年6月27日，德国数据保护专员梅克坎普宣布，已经要求苹果和谷歌从德国应用商店下架DeepSeek应用程序了。德国不是第一个，估计应该也不是最后一个。第一个是谁？意大利。意大利在每一次反对AI这件事情上，都是占第一个。原来他还反过OpenAI的ChatGPT。2025年初，也就是R1刚出来的时候，就直接给封了。</p>



<p>欧盟的其他国家现在是一个什么状态呢？他们比较纠结。荷兰是禁止政府手机安装DeepSeek的APP；比利时是建议公务员的手机不要安装，但是不强制；西班牙是有消费者权益组织在呼吁，政府到目前为止没有采取任何的措施；英国表示说他们在持续的监测，目前还没有做出反应。</p>



<p>其他的一些国家对DeepSeek是什么样的一个态度呢？加拿大所有的政府设备禁止使用DeepSeek；丹麦政府设备禁止使用，但是丹麦有5个大区里头，只有3个在执行，剩下两个还在看。</p>



<span id="more-2348"></span>



<p>美国在这件事情上比较散装。什么叫散装呢？就是他也是管政府，其他的就是全民的，这个现在还没管起来。而且政府是各自出禁令：NASA禁止员工使用，五角大楼禁止访问，美国海军禁止使用DeepSeek相关技术，都是直接禁掉了。德克萨斯州禁止政府设备使用DeepSeek。美国这么多州里头，只有德克萨斯出了这样的法令，其他地方都没动。数百家私营企业已经要求企业网络安全服务公司阻止访问DeepSeek。这个什么意思？就是很多的美国企业呢，他们会把公司内部的安全事项包给一个公司，说你们公司来帮我去做我们整个的网络安全，请在设置防火墙的时候，把DeepSeek整个的网站都给我封掉，不允许访问。这是美国的情况，没有全国性的法律。全国性的法律有人在提，但是现在距离能够真正成为法律还比较远。</p>



<p>澳大利亚是阻止政府设备访问DeepSeek服务；韩国是政府国防部各个部门禁止使用DeepSeek服务。</p>



<p>印度比较好玩，财政部禁止使用DeepSeek和ChatGPT。我们能够跟ChatGPT一起被禁止，也是很光荣的一个事情吧。电子和信息技术部建议本地部署，解决隐私问题，说咱们别封禁这玩意，咱们自己部署一套东西咱自己使吧。这个是印度还比较务实的一个玩法。</p>



<p>封禁DeepSeek，大家都在封，分很多个层次。</p>



<p>第一个层次就是叫政府设备禁用，其他民众不管。很多的政府呢都是这样去做的，包括像最早美国政府去封TikTok，也是这样的。就是政府工作人员的手机，不允许安装TikTok，其他的人我是管不着你的。他们反正也是有言论自由，或者各种的信息自由使用的权利嘛。所以呢，很多的政府是这样来处理这个问题的。</p>



<p>第二种呢，就是叫全境封锁，而且呢是封DeepSeek的APP。大家注意，我们现在都叫DeepSeek，但其实是分很多层级。DeepSeek有开源的大模型，任何人可以把它部署到自己的云服务器，或者部署到自己家里边去。然后呢，有DeepSeek网络服务，就是我们连接DeepSeek的网站，使用这个网站上的聊天功能，或者是使用它的网站上面，由DeepSeek官方部署的大模型，买它的API的TOKEN直接使用。第三个层级呢，才是移动端APP，就是安卓iOS的这个APP。</p>



<p>德国这次呢，实际上进了个寂寞，只封禁了DeepSeek APP。他没有去封禁DeepSeek网站，在德国境内的民众，依然可以通过DeepSeek网站去跟DeepSeek的服务去聊天，也可以通过DeepSeek的网站直接调用DeepSeek服务端的这些API，直接去工作都是没问题的。只是把这个APP给下架了，这个其实没有任何意义。</p>



<p>再往后一层级是什么？就是封这个DeepSeek网站。就是我不但要把你的APP下架，还要封网站，任何人都不允许访问你的网站去跟他聊天，也不允许调用他的API服务。意大利全境是达到这个高度，就是意大利境内你不可以访问<a href="https://deepseek.com" target="_blank" rel="noopener">DeepSeek.com</a>这个网站的。</p>



<p>澳大利亚政府的设备不允许连接DeepSeek网站，也不允许安装DeepSeek的APP。这个其实相对来说比较好做，就是你只要是在澳大利亚政府的所有手机设备上，修改一个域名指向，保证所有指向<a href="https://www.deepseek.com/" target="_blank" rel="noopener">deepseek.com</a>的这个域名，把IP地址直接给它改掉就完事了。这样就即使你安装了DeepSeek的APP，你也访问不了它的服务，它是可以这样来处理的。</p>



<p>美国的很多大公司呢，也是通过他们各自的安全公司服务商的防火墙，封禁了DeepSeek的服务器访问。你拿着手机出去没人管你，你只要拿着手机进来了，连了公司的Wifi了，你就不可以再去访问DeepSeek的服务器了。你装了DeepSeek APP，你进到公司里边来也用不了，它是这么来工作的。那有没有人……</p>



<p>去禁止DeepSeek开源模型部署呢，也有。谁呢？美国国会、五角大楼、NASA是禁止在自己的设备上部署DeepSeek的开源大模型的。你把模型布在这儿，万一这个模型跑着跑着，把我数据偷跑了，这玩意不行。</p>



<p>澳大利亚禁止政府设备部署DeepSeek开源大模型。韩国呢，国防部是不允许部署开源的DeepSeek大模型的。其他的一些政府部门呢，别用它的服务就完事了。你部署模型本地使用，我不管你。</p>



<p>DeepSeek被欧美封禁呢，本身其实也没有太去争取过说解禁，或者说“我怎么能为你服务”。DeepSeek也没惦记这事，爱封封去呗。我反正就开放给你使，你愿意使使，不愿意使拉倒，大概是这样的一个态度。</p>



<p>意大利跟德国呢，其实都给DeepSeek写过邮件，发过信息，要求DeepSeek呢，对其数据的隐私保护措施进行说明和调整优化。就是说：“你这个数据能不能不要回到中国去？你能不能在意大利或者在德国，或者至少在欧盟吧，你建个服务器，把这些数据存在本地？或者能不能告诉我说，这个数据回到中国以后，是不是做了脱敏处理？能不能保证我们的这个信息安全？”</p>



<p>发了信息以后呢，DeepSeek基本上就是“我不理你”。反正我也在你这儿没有什么实体，我也不在你这运营，你拿我也没办法，我就懒得理你。所以意大利政府也好，德国政府也好，发现“我发了要求了，你不理我，那我就给你封掉”。</p>



<p>所以这件事呢，大家也没做错什么。开源模型完全可以在当地部署，将数据存在他们本国，是完全可以达到合规要求的，这个本身是没问题的。但是DeepSeek没惦记做他这个生意呢，也就没有费这个劲。</p>



<p>因为中国其他的这些大模型，包括AI的很多应用呢，都在欧盟、美国使用的很好，并没有被封禁。比如说像千问，阿里的这个模型，开源呢没有问题。国内外访问它是分离的，咱们在国内访问的是<a href="https://www.tongyi.com/" target="_blank" rel="noopener">tongyi.com</a>，在国外访问的是<a href="https://chat.qwen.ai/" target="_blank" rel="noopener">qwen.ai</a>，这个不一样的网址。千问是<a href="https://chat.qwen.ai/" target="_blank" rel="noopener">qwen.ai</a>，就是你各自访问各自的。所以呢，它这个数据本来隔离的，那它就不会有人去封禁你。</p>



<p>而且千问也好，通义也好，它这个用户量其实本身不是很大。它通义是有APP的，千问没有。通义的APP压根就没有在欧盟去上架，就是你这个APP到这个应用市场上架的时候，你可以选说我到底要在哪些国家上架，它没去，所以也没有被封禁的这个机会了。</p>



<p>另外一个中国公司，AI公司在海外有很多用户的呢，就是Mini Max。Mini Max呢，它是国内外也是分开的。</p>



<p>你想去调Mini Max的服务，他还要问你说：“你到底是调国内版还是调国外版？”如果是国内版的话，你的网址是什么？你要上什么地方去申请这个TOKEN？你要调国外版，它网址就不一样。那这样分离的话，它就没有问题，国外也都是允许使用的。只是DeepSeek懒得给你费这个劲了。</p>



<p>另外，你比如像字节、快手，他们的这种AI服务也都是分离的。字节的coze，它在中国访问的是<a href="https://www.coze.cn/" target="_blank" rel="noopener">coze.cn</a>，在海外访问的是<a href="https://www.coze.com/" target="_blank" rel="noopener">coze.com</a>，它就完全分割的。那大家就用吧，没有任何问题。快手的可灵也是这样的，海外跟国内的域名、APP全都不一样，这个就没事。</p>



<p>现在这些大模型公司，大概只有一个是比较特殊的，不是DeepSeek，是谁？是智谱。智谱呢，是被美国列入实体清单了，进入了美国严选。就是中国的这些AI公司呢，原来那些做人脸识别的企业，都因为侵犯人权被挂在实体清单里头，像什么商汤科技、科大讯飞、海康威视、旷世科技、大华股份、一图科技、云从科技，这些都是实体名单里头的。这一波做大模型的公司里头，唯一进到实体名单里头就是智谱。那他的这个模型大家就别使了，其他的其实都没有进到美国实体清单里头去。这就是当前的一个情况，就各个国家到底是如何去封堵DeepSeek的一个情况。</p>



<p>那最后呢，总结一下：德国对DeepSeek的封禁呢，基本上是封了个寂寞。你把APP封了，网站没封，这个其实是没有任何意义的。德国境内的民众依然可以通过手机、电脑登录到DeepSeek的网站上，去享受他们的这种API服务，或者是直接在网站上跟人聊天，这都没毛病。DeepSeek自己呢，也没有惦记着去开拓海外的个人市场，所以呢，也没有费工夫去做合规。如果认真做，其实不会被封，就是DeepSeek本身应该是有能力合规的。</p>



<p>真正担心安全问题的，就不是像德国这样直接把APP封了了事了。真正担心安全问题的，会封禁DeepSeek的开源大模型，就是你不允许在我的设备上部署你的开源模型，这个才是真正有安全意识的人干的活。那是不是有人真的偷数据了呢？这个事真不好说，因为也没有证据。但是现在数据的流转，其实根本是没法封禁的。美国要求美国人的数据在美国，欧盟要求欧洲人的数据在欧洲，这个没有任何意义。即使数据库存在欧洲本地，也有很多方式通过远程的方式，把这些东西直接去进行解读、去进行打包，或者是加密了以后再传回中国来，都是可以做的。所以现在他们各个国家。</p>



<p>制定的什么“守门人”法令，或者各种AI的这种限制法令，对于数据安全来说，基本上是没有什么意义的。而且呢，有了AI之后，原来一些可以保证数据安全的方式，现在实际上都没法使了。</p>



<p>原来是说大量的数据混在无序数据里边，是被保护的，因为很难挑出来嘛。现在有AI了，在海量数据里边“大海捞针”也不是不可能的事情。所以呢，现在真的没有什么安全的方法。特别是伊朗这次被以色列彻底给渗透了之后，核专家一个一个被暗杀了，军队的高层领导一个一个定点清除，所有的这些设备设施，一个一个精准打击，就说明数据渗透这件事情还是非常可怕的。</p>



<p>以前呢，美国人喊中国“门户开放”，现在中国要求美国“技术共享，市场开放”。以前呢，中国通过“墙”保护，外面的信息别流进来；以后呢，可能全世界都需要建墙，保护自己的数据别流出去。</p>



<p>这就是这一次DeepSeek被德国勒令全境下架的一个故事。这个故事今天就跟大家讲到这里。感谢大家收听，请帮忙点赞，点小铃铛，参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>。也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见！</p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>从557万美金训练成本到545%利润，DeepSeek如何用惊悚的数字，震撼AI行业的？这些数字，靠谱吗？</title>
		<link>https://lukefan.com/2025/03/04/%e4%bb%8e557%e4%b8%87%e7%be%8e%e9%87%91%e8%ae%ad%e7%bb%83%e6%88%90%e6%9c%ac%e5%88%b0545%e5%88%a9%e6%b6%a6%ef%bc%8cdeepseek%e5%a6%82%e4%bd%95%e7%94%a8%e6%83%8a%e6%82%9a%e7%9a%84%e6%95%b0%e5%ad%97/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 04 Mar 2025 00:40:05 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[545%利润]]></category>
		<category><![CDATA[557.6万美金]]></category>
		<category><![CDATA[AI优化]]></category>
		<category><![CDATA[AI优化技术]]></category>
		<category><![CDATA[AI公关策略]]></category>
		<category><![CDATA[AI公司争斗]]></category>
		<category><![CDATA[AI利润计算]]></category>
		<category><![CDATA[AI商业模式]]></category>
		<category><![CDATA[AI商战]]></category>
		<category><![CDATA[AI基准价格]]></category>
		<category><![CDATA[AI市场格局]]></category>
		<category><![CDATA[AI开源项目]]></category>
		<category><![CDATA[AI成本分析]]></category>
		<category><![CDATA[AI投资策略]]></category>
		<category><![CDATA[AI推理市场]]></category>
		<category><![CDATA[AI推理未来]]></category>
		<category><![CDATA[AI数据中心]]></category>
		<category><![CDATA[AI服务器管理]]></category>
		<category><![CDATA[AI生态小厂]]></category>
		<category><![CDATA[AI硬件]]></category>
		<category><![CDATA[AI自由市场]]></category>
		<category><![CDATA[AI行业内幕]]></category>
		<category><![CDATA[AI行业梗]]></category>
		<category><![CDATA[AI行业盈利]]></category>
		<category><![CDATA[AI话题营销]]></category>
		<category><![CDATA[AI资源分配]]></category>
		<category><![CDATA[AI量化交易]]></category>
		<category><![CDATA[AI量化模型]]></category>
		<category><![CDATA[AI高峰时段]]></category>
		<category><![CDATA[API定价]]></category>
		<category><![CDATA[CUDA]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Deepseek V3]]></category>
		<category><![CDATA[DeepSeek开源库]]></category>
		<category><![CDATA[DeepSeek计算精度]]></category>
		<category><![CDATA[GPU全天运营]]></category>
		<category><![CDATA[GPU租赁成本]]></category>
		<category><![CDATA[GPU负载均衡]]></category>
		<category><![CDATA[H100芯片]]></category>
		<category><![CDATA[H800]]></category>
		<category><![CDATA[MAAS厂商]]></category>
		<category><![CDATA[MAAS盈利模式]]></category>
		<category><![CDATA[MAAS竞争]]></category>
		<category><![CDATA[R1价格]]></category>
		<category><![CDATA[中国AI企业]]></category>
		<category><![CDATA[中美AI价格差]]></category>
		<category><![CDATA[中美AI市场对比]]></category>
		<category><![CDATA[云服务厂商]]></category>
		<category><![CDATA[云计算]]></category>
		<category><![CDATA[华为云]]></category>
		<category><![CDATA[商业逻辑]]></category>
		<category><![CDATA[大模型服务]]></category>
		<category><![CDATA[大模型训练]]></category>
		<category><![CDATA[字节跳动DeepSeek]]></category>
		<category><![CDATA[并行计算]]></category>
		<category><![CDATA[开源协议]]></category>
		<category><![CDATA[推理利润]]></category>
		<category><![CDATA[推理效率]]></category>
		<category><![CDATA[推理系统]]></category>
		<category><![CDATA[数据参考价值]]></category>
		<category><![CDATA[数据水分]]></category>
		<category><![CDATA[数据逻辑]]></category>
		<category><![CDATA[模型优化策略]]></category>
		<category><![CDATA[模型即服务]]></category>
		<category><![CDATA[深度学习]]></category>
		<category><![CDATA[硅基流动]]></category>
		<category><![CDATA[腾讯DeepSeek]]></category>
		<category><![CDATA[腾讯IMA]]></category>
		<category><![CDATA[芯片性能]]></category>
		<category><![CDATA[训练成本]]></category>
		<category><![CDATA[路深科技]]></category>
		<category><![CDATA[达芬奇架构]]></category>
		<category><![CDATA[阿里云投资]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1960</guid>

					<description><![CDATA[啊啊啊啊啊啊啊！！！DeepSeek推理利润545%，行业炸裂！🏆

家人们，谁懂啊！DeepSeek这次真的玩大了，推理利润直接干到545%！！！行业彻底炸裂了💥！你们还记得当年那个557.6万美金的训练成本吗？这次又来了个更狠的！🔥

**为什么这么炸？**
DeepSeek这次公布的数据，直接让所有人傻眼！别人都说亏钱，DeepSeek直接赚到飞起！背后的秘密就是——负载均衡和并行计算！🍃

**负载均衡？**
把每一层的模型专家分配到不同的设备上，让所有芯片都动起来，一点都不浪费！效率直接拉满！🚀

**并行计算？**
所有芯片一起干活，速度飞快！一边干活，一边读写数据，完全不耽误！这操作，简直绝了！🎯

**还有更绝的！**
DeepSeek还用了“驴粪蛋表面光”的策略，表面光滑，细节忽略，效率直接飞升！这操作，真的太秀了！🤯

**545%的利润怎么算的？**
GPU满负荷工作，优化手段全用上，按最贵的价格算，直接算出545%的利润！虽然有点水分，但这数据还是有参考价值的！📊

**DeepSeek的目的？**
证明自己用H800就能搞定一切，顺便让大家都卷起来！这波操作，真的太顶了！🎉

家人们，这波真的不冲不行了！DeepSeek的操作，直接改变了行业规则！赶紧收藏，随时学习！📚

#DeepSeek #推理系统 #行业革命 #负载均衡 #并行计算

从557万美金训练成本到545%利润，DeepSeek如何用惊悚的数字，震撼AI行业的？这些数字，靠谱吗？

DeepSeek以一场让人措手不及的“one more thing”，震撼性地展示其推理系统的超高利润率达545%。从557.6万美金的训练成本到惊为天人的运营优化，DeepSeek凭借负载均衡、并行计算等技术手段实现了“极致节约”。然而，其计算逻辑背后隐藏的水分也备受行业诟病。与此同时，硅基流动与路深科技就DeepSeek的利益布局展开激烈争斗，MAAS厂商格局愈加扑朔迷离。在全球AI推理市场中，DeepSeek如何借助中国价格锁死策略与开源项目继续站稳脚跟？本期深度解读，带你全面认知AI时代下数据逻辑的权衡与商战背后的复杂博弈，探索AI推理的未来发展方向。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="从557万美金训练成本到545%利润，DeepSeek如何用惊悚的数字，震撼AI行业的？这些数字，靠谱吗？" width="900" height="506" src="https://www.youtube.com/embed/4xBnIP0EtYw?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>DeepSeek也玩“one more thing”，突然公布了它的推理利润达到545%，就像当初557.6万美金的训练成本那样，再次震惊了行业。大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲，DeepSeek结束了连续5天的开园周之后，到礼拜六玩了一次“one more thing”。这个“one more thing”呢，应该是当年乔布斯的梗。他每一次开发布会到最后的时候呢，都要说“还有一件事，等一等”，而且这一件事呢，往往是特别重要、特别颠覆性的事情。那么这一次又来了，DeepSeek公布了它的V1和R3推理系统相关内容，及大规模部署的成本和收益数据。就是说我部署了这东西以后，到底是挣了多少钱？非常非常让人震惊，因为所有人做这个东西都说我不挣钱，我亏钱，结果等到他这好，545%的利润，所有人都傻了，说你到底咋干的？</p>



<p>具体的实现方法呢，就不再跟大家详细分析了。简单来说，第一个负载均衡，你想他有这么多的GPU，这么多的核心，在他这种MOE的架构下，他把每一层的模型里边每一个专家，分配到不同的设备上面去进行运算。这个呢，就是一个负载均衡，尽量让所有的芯片都动起来，不要说有的芯片闲着呢，有的芯片在那排队。第二个，并行计算。并行处理是什么呢？所有的芯片一起来干活，这个速度肯定会变快。另外呢，一边干活的时候，另外一边呢，再同时进行数据的读写。你不能说我这需要数据了，你给我读，然后处理完了以后你再去写，这样就变慢了嘛。所以基本上在做这样的事情，负载均衡和并行处理。</p>



<p>另外还有一个什么样的事情在做呢？就是有一点点叫“驴粪蛋表面光”。这个也算是老北京的一个俏皮话，什么意思呢？就是这个驴粪球外边是很光滑的，但是里边呢，就是一堆的没有消化好的碎草。DeepSeek也是如此，他把很多的计算精度呢进行了调整，他尽可能的能够达到大家的要求，但是很多细节上的这些你看不到的环节呢，就给你忽略掉了。</p>



<span id="more-1960"></span>



<p>所以，这个也可以极大地提高效率。他说：“我通过了这样的方式，达到了545%的利润。”当年给出的DeepSeek V3 557.6万美金的训练成本，已经成为了一个业内的计量标准，或者计量单位了。就跟你说这个东西是一牛顿，那个东西叫一瓦特，他这个557万的训练成本，也成了一个计量单位。OpenAI用了1,400万美金投超级碗广告的时候，很多人就说：“你这玩意够训练几次DeepSeek了？”这个已经成为一个业内梗了。</p>



<p>在制造话题这块，DeepSeek作为AI时代的顶级企业是合格的。大家注意，AI时代跟以前不一样。原来呢是酒香不怕巷子深，但是现在你从OpenAI、Anthropic，再到国内的DeepSeek，每一个都是制造话题的好手。必须要会讲故事，才可以在这个时代好好地玩下去。</p>



<p>那么，545%的利润和557.6万美金的训练成本，到底是一个什么样的概念呢？是真的还是假的？是不是吹牛？很多人一上来就会问这样的问题。事情呢，没这么简单。数据肯定有一定水分，咱们一定要承认这件事。但是呢，这个数据也是有参考价值的，不是说你这个东西是真是假，一刀切完事了。这个还是要具体来去分析一下。</p>



<p>咱们呢来看一看，545%的利润到底是怎么算出来的。说这个GPU都是7*24小时满负荷工作，然后呢把所有的优化手段都用到极致，就是他这5天发布的这些优化手段，我都给用上了。然后计算输出TOKEN的总量，就是我这么长时间，一共可以输出多少TOKEN出来。按照最贵的DeepSeek R1的价格来去收钱，这个是100万TOKEN 16块钱，这个是DeepSeek自己给的价格。国内的这些云服务厂商，基本上都是按这价格做的。等于就是说我一天24小时，满负荷输出这么多的TOKEN，能够说到多少钱。再以GPU租赁的价格，两美金一小时作为成本，把这俩数一除，就算出了一个545%的一个利润率来。他是这么算出来的。那这个水分在什么地方呢？</p>



<p>第一个GPU是不可能7*24小时满负荷工作的。就跟送外卖一样，赶上午餐时间大家都得去送外卖，午餐吃完了以后所有人都在那闲着，这个才是正常的状态。GPU也是如此的，你不可能说大家都商量好了，这个7*24小时达到均匀的来，我们让所有的GPU跑满，谁都别闲着。这个事是绝不可能的，而且距离现实情况相距甚远。</p>



<p>正常应该是什么呢？为了保障高峰时期的服务不崩，必须要容忍非高峰时期，可能有70%到80%的服务器是冗余的，或者在那闲置的。那你说到底有多少这个时间算高峰时间，有多少时间是非高峰时间呢？这个一天里头的高峰时间，可能能够有这么三五个小时也就到头了，不会到8个小时的。</p>



<p>像我们以前做游戏的时候，是什么时候高峰时间呢？中午吃饭的时候，还有吃完晚饭9点以后算是高峰时间。那你说我这是工作上班的事情，那他应该是在早晨10点、11点，你没准是个高峰，然后下午2点多到四五点钟，是有一个高峰。其他的时候这个服务器都是闲着的。所以千万不要觉得说，能够跑20个小时的高峰，想都不想，你能跑4个已经算很好很好了。</p>



<p>那么DeepSeek也不是所有服务都收费的，它是按最贵的那个算，按DeepSeek R1每100万TOKEN 16块来算的。你如果按照DeepSeek V3，每100万TOKEN也才8块钱，就肯定没有500%多的利润。而且DeepSeek上呢，比如说他的网页还有他的APP，这些都是不要钱的，你也得为人服务。那这一块他就没算在里头，都按这个R1去收费了，所以这个肯定是不对的。</p>



<p>而且现在DeepSeek呢，在晚上的非高峰时期，也就是凌晨3点到第二天8点这段时间，他还对这个API的价格打折。这块他也没算在里头。其实我觉得他真没必要打折，因为我在这个时间段试过，依然很慢，他的服务器依然是不反应的。所以呢，他做这样的事情，应该还是有一些奇怪目的的吧。他现在的这个成本呢，只计算了GPU的租赁成本。</p>



<p>这个肯定也是有水分的。当然了，GPU租赁呢，是包含服务器、水电、制冷、相关人员成本的，甚至还包括资金占压成本和一些利润。因为你找别人去租GPU来，人家还挣钱呢。所以这块呢，一个小时两美金这个事还是比较宽裕的。而且DeepSeek自己部署机房的话，可能它的成本还要比一个小时两美金要稍微低一点点。但是呢，他的研发、训练、数据准备等等这些成本都没算在里头去。所以呢，他在整个计算成本的时候呢，肯定是极大的降低了成本的总量。</p>



<p>这个呢，就跟前面咱们讲557.6万美金的DeepSeek V3训练成本其实是一样的，也是这么算出来的。它只计算了2,048块GPU运算了多长时间，其他的什么人员工资、数据准备这些全都没算进去。咱们这里的人员工资就是分两块，一块是机房维护的人员工资，这块呢，应该已经算到了GPU租赁的价格里边去；另外一块是他自己那帮科学家的人员工资，这部分那是没算的。</p>



<p>那么实际利润应该有多少呢？你说没有545%，那到底应该有多少？可以跟大家负责任的说，实际利润一定是亏损的，谁也不可能靠这玩意挣钱，按这价格都挣不回来。那么为什么还说这个数据是有参考价值的呢？大家注意在投融资的时候，或者是在做量化交易的时候，你需要一些简单快捷的方式去计算出某一个数值的极限范围。这个东西最多能挣多少钱，最多能亏多少钱，是要快速的算一下的。只有算完了这个以后，才可以去做一些决策。完全准确的数据说，我这东西算完了以后特别精确，就是挣这么多钱，就是亏这么多钱，这个数呢有时候没有什么意义，时间更重要。</p>



<p>DeepSeek呢就是做量化出身的，所以呢，他们很习惯这样去计算数据。你也不能说人家故意坑你。所以先计算极限，然后再向极限前进。如果发现没法到达，咱们再去分析原因调整数据。这个是甭管做投融资还是做量化，必须要干的事情。那么我们应该如何看待这样的数据呢？无脑吹，无脑喷。</p>



<p>一上来说看DeepSeek好厉害，中华之光。另外一帮人说你看这就是骗人的，这个不可能的。这个呢，您开心就好，您走错频道了，不应该来看老范讲故事。您去找一些更二极管一点的频道去看，会更加开心一点点。还有一些人呢，找出证据来论证他不靠谱，或者是让别人自证清白。你找出证据来呀，你自己列出这个数据来呀，你看你不靠谱吧。这些人呢其实也是一种无脑的表现，就是你要知道这个东西背后的逻辑是什么，以及它的价值在哪个范围内是有效的，而不是说上来体现一下自己的优越感。这种人也没什么意思。还有些人呢上来就说，哎呀，这个事情很复杂，一句两句解释不清楚，然后呢给你说一大堆的专有名词出来。这种人可能是骗子，他总是惦记从你身上得到一些什么的。</p>



<p>所以我们真正要做的是什么呢？就是理解这种数据产生的逻辑意义，以及呢价值，在其合理的范围内使用这些数据作为参考，但是不能迷信。为什么要有合理的范围内使用呢？真理还有适用的范围呢，没有哪项真理是放之四海皆准的。真理离开了他的适用范围就是谬误。同时呢我们要训练自己快速得出类似的这种数据的能力，或者呢，是加强我们对此类数据进行判断的这种能力。</p>



<p>那么DeepSeek为什么要公布这样的一个数据呢？这个目的和险恶用心何在呢？这个才是我们吃瓜的乐趣所在。第一个他要证明自己在H800下完全能够搞定所有的事情，还能挣钱。因为一直有人在质疑DeepSeek走私了H100，手里边有5万块H100，大家都在讲这个事。但是呢，DeepSeek自己不会去证明说我手里有还是没有，这个都没有任何意义。有呢，肯定有问题，可能会造成你这种技术在海外被彻底封禁。你就算是开源说，你这个技术因为是违法获得的，所以谁都不许用，他有可能会得到这样的一个结果。那你说我没有呢，你又很难证明这个事情，说我没有，自证清白这个事是挺难的。那么干脆我们就不证明了，我既不说我干了，我也不说我不干了。他干嘛呢？</p>



<p>他说：“我证明一下，我不需要H100，我用H800完全可以搞定。我把这个事儿证明一次就完事了。DeepSeek现在也没办法把这些H100拿出来，开足马力来为大家服务。现在突然服务的很顺畅了，说你是不是把H100拿出来偷偷用了？没有，你看我说都算好了。这个我是挣钱的，我不需要把他们拿出来。他现在需要给自己做这样的一个辩白，这是第一点。”</p>



<p>“第二点是什么呢？就是我没赚着钱，你们也别想赚钱，大家一起来卷。什么意思？这个学霸经常出来说：‘你看我没有复习功课哦，我就是天天玩，但是我考得很好。’他们是很气人的。可能这跟你说完了不复习功课，炫耀了一下我怎么去玩耍了，回家就苦读到半夜。这个是很多学霸的一种套路。DeepSeek可能也是这么搞的。他自己的网页、APP和API现在基本无法使用的一个情况下，国内的各大厂呢，都在拼命地接DeepSeek。但是呢，又没有给DeepSeek付钱。那DeepSeek只能出来阴阳一下说：‘看我还是挣545%呢，你们挣老鼻子钱了，是不是得意思一下？’那干脆大家一起卷就完了。然后在这个过程中，把这些不挣钱的小的卷死。大的也不是说就挣钱了，大的是有其他业务可以补贴，他赔得起。等到最后剩这帮大的的时候，咱们再来谈这个事情。咱先把这帮小的都卷死。他在干这样的一个事情。你想学霸上来说：‘我从来不复习功课，我上来就考第一。’他干嘛呀？第一个，心里要开心一下，要稍微秀一下优越。另外一个呢，就还是说，咱们这个各层次咱们分别卷起来，要干这个事情。”</p>



<p>“那么这个事情发布了以后呢，周末还炸出一个小瓜来。这只能算小瓜了，就是硅积流动跟路深科技两边掐起来了。这两家呢，都是做MAAS的，就是大模型作为服务。咱们做云计算，有IAS，就是基础架构作为服务；SAS是软件即为服务；PAAS是平台即为服务；MAAS呢，叫model as service，就是大模型就是服务。是这样的两个厂商自己就掐起来了，为什么呢？”</p>



<p>现在，他们都接了DeepSeek，但是肯定都不挣钱，而且亏得很厉害。路深科技呢，就卷不动了。这位CEO是UC Berkeley的博士，所以我看他的这个签名是伯克利什么什么。这个人我也不认识，所以这名字咱就不记了。他呢，算是有一些网红包袱。你说我卷不动这事呢，我又不能承认。我不能承认这个网红塌房了，别人能搞定，我搞不定。所以呢，一定要找一个出口说，你看他们其实也不挣钱，他们就想卷我们，他们也有问题。他找到了谁？找到硅基流动了。这个不能是自己的问题，也不能是DeepSeek的问题。DeepSeek现在是中国之光嘛，这事一定是你自己技术不好。而且这事还不能是华为的问题，这事跟华为有什么关系呢？就是路深科技跟硅基流动，他们接DeepSeek都是跑的华为云的升腾910芯片的，他们没有跑英伟达芯片。那这个事这几家都怪不了，不能怪自己，不能怪DeepSeek，也不能怪华为。那我们怪友商吧，怪这个硅基流动吧。他说硅基流动你春节加班，因为DeepSeek的发布是在春节期间发布的嘛，而且呢还在卷砍一刀的事情。因为这个硅基流动发了好多的代金券出去，赚了一波流量。你发了这个多少亿的代金券出去，你手里就1亿2亿的现金，你根本就没有办法兑现这个事情。这个其实也是有点骗傻子了，代金券出去并不是需要用你手里的现金去兑换的，你是要用服务慢慢地去把这些代金券消耗掉，跟你手里有多少现金本身是没有关系的。当然，卷这个事呢，在中国企业的竞争过程中呢，算是一种常态吧。现在硅基流动的DeepSeek R1也基本上处于不可用状态，我现在也不用他们家的，都是用火山的。待会咱们再讲为什么用火山的。到这了这两家就开始互相掐了，硅基流动说人家是已经发布了这些开源项目了，我们照着去学就完了，但是这个事很难，你搞不定，你不要说别人也搞不定，开始阴阳这个路深科技。这两边就开始相互的指责，说你挖我的人。</p>



<p>硅基流动说你抄袭，开始互相怼起来，这已经离开事实本身了。这个呢，稍微有一点点low。卷不动呢，你就默默地退出就完了。当然，内部人设立不住呢，你就需要在外边立靶子。我们也见到了很多这样的案例了，最后呢在外部还翻了车了，只能回去继续统一思想。</p>



<p>怎么在外部翻车了呢？因为路深科技呢，被硅基流动指责说你抄袭。然后路深科技说，抄袭的那个是原来我CTO干的，CTO已经把它开了。而且呢，CTO被开了以后，还去你硅基流动上班去了。现在这个CTO也出来回复了这件事情，他说我就是当年那CTO，我去的时候这项目就已经是这样了，那个代码也不是我抄进去的。说我去了以后呢，还整理了所有的代码，把所有引用的东西呢，给他写清楚出处。</p>



<p>这个开源项目怎么算抄袭，怎么算不抄袭？就是你违反了人家的开源协议，你用了人代码你没有写说这是哪来的，这就算抄袭。你说我用了人代码了，但是我写清楚我用了谁谁谁家代码，符合人家的协议，然后我在这个基本上做什么修改了，这个就算给开源做贡献。人家的CTO说压根跟我没关系。</p>



<p>然后第二个说我为什么离开呢，是因为他们用假的期权合同骗我，让我去的时候给我承诺了期权，结果最后呢没法兑现。因为这个事情我质问了他们，所以最后离开了。在其他的一些抄袭事件，因为这个路深科技，还有其他的抄袭事件，说这个就跟我完全没关系，等于又把这个路深科技整个放这了。</p>



<p>那么DeepSeek的推理市场，未来到底怎么走呢？首先腾讯去加单了，订购了10-20万块的H20，这个是现在允许向中国出口的型号，全线接入DeepSeek。在它的微信，IMA，还有元宝这些程序里边都接了。IMA呢是一个办公用的AI助手，元宝呢，是个人用的AI助手。现在元宝在疯狂的做推广，微信的搜索里边，现在也在进行灰度测试，直接在里边可以使用DeepSeek R1进行搜索推理。字节呢，本身就是算力大户，它是全世界第二名的算力大户，第一名是微软，第二名就是它。</p>



<p>DeepSeek只做ToB的服务，就是你可以在字节的火山引擎上用它。字节自己的产品里是没有去接DeepSeek R1的，他们还是比较骄傲的，希望这个豆包模型可以追上来。所以字节的DeepSeek R1是我现在用过的所有DeepSeek R1里头最快的，因为算力足够多，用的人不是很多，所以他最快。</p>



<p>阿里云呢，未来三年投入3,800亿人民币做算力投入，说那我们就疯狂去买就完了。至于这些MAAS厂商，就是叫模型及服务的厂商，这个背后都是华为云，价格又被DeepSeek给锁死了，这个就很痛苦。所谓锁死了什么意思？DeepSeek在中国给出的价格，咱们就说R1的输出价格吧，是最贵的一个价格，是每100万TOKEN 16块钱。现在甭管是路深科技还是硅基流动，或者是阿里云火山云，都是用同样的价格给的，100万TOKEN 16块人民币。但你知道国外多少钱吗？在together上刚才我查了一下，美国的服务器上部署的DeepSeek R1，它的100万TOKEN大概是七八块美金了，应该到50多块钱人民币，所以这个还是挺贵的。</p>



<p>他们的V3其实价格都差不太多，咱们的V3的输出呢，是八块钱人民币100万TOKEN，在美国的话是1.25美金100万TOKEN，这个是相差不多的。但是R1这个真的是差三倍的钱，国内这个锁死价格了，以后他们就必然会按照这个价格赔钱赔下去。</p>



<p>至于DeepSeek所开源的这些库呢，他们只能去借鉴一个思路，肯定用不上。为什么？因为DeepSeek所有开源库都是基于CUDA的，都是基于英伟达芯片的。这帮人看着一堆的华为升腾910，只能说，咱们看看这个大概思路是不是可以参考一下。那这个想去做的话难度就大了，而且整个的服务过程必然亏损。原因也很简单，就是你的服务器绝不可能7*24小时很均匀、很平顺的满负荷运转，这个事情从头到尾就是个伪命题，所以肯定是亏的。</p>



<p>而且，华为呢是不会承担这种亏损的。你跟华为合作，人家还忙着爱国呢。你亏了钱，肯定是你自己的问题。而且，人家DeepSeek说了：“我这能挣钱，你亏了，你不能怪我，你也不能怪华为。你看看你自己的技术哪不对。”</p>



<p>而且，这些MAAS的厂商呢，还没有大厂其他的业务可以补血。你比如像刚才我们讲，腾讯在这个IMA或者是元宝里边，去使用DeepSeek R1的时候，你是不用付钱的，免费的。但是，腾讯有游戏收入，有广告收入，还有各种电商收入。他有一堆收入可以补这个窟窿。他去买20万张的H20，花不了多少钱，对于他整个利润来说，都是可以承担的成本。</p>



<p>硅基流动，路深科技，你跟他卷，这你肯定卷不过他。更别说字节跳动了，字节跳动比腾讯还能挣钱呢。所以呢，跟大厂他们也卷不过。model as a service的这些厂商呢，只能看谁坚持到最后。坚持到最后，也不是说他们就能胜出。坚持到最后呢，也就是看最后谁能够下车，被这些大厂所收购。这应该就是他们的出路。</p>



<p>当然，你说我未来是准备被收购的，那也就不能长太胖。什么意思？你不能拿太多的融资，必须要自己挣钱。因为你拿了很多融资以后，你的估值会变得非常高。等到最后大厂去选择一家，把它收下来的时候呢，通常还是要去衡量一下性价比的。</p>



<p>那么，总结一下。首先呢，要感谢DeepSeek又给了一话题，又可以跟大家扯一会儿。如何理性地判断各种夸张数据背后的逻辑和价值，才是今天我们要讲这期视频的核心点。而不是说，我们来批判一下这东西合理还是不合理，这个没有什么意思。</p>



<p>AI正在走向新的时代，过去很多的商业逻辑呢会发生变化。过去的经验未必有效，但是依然是会有一定的价值。你像我给大家分析很多东西，都是根据我过去的很多商业逻辑来分析，但是也不能迷信这个东西。像我每次都会跟大家强调，这个东西呢，有可能分析的不全面，未来有可能会出现我们想象之外的东西。那这个才是我们这个频道始终跟大家所强调的东西。好，这期就讲到这里。</p>



<p>感谢大家收听。请帮忙点赞、点小铃铛，参加Discord讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>DeepSeek引爆硅胶娃娃市场！人工智能加持情感寄托，背后细节全揭秘</title>
		<link>https://lukefan.com/2025/02/27/deepseek%e5%bc%95%e7%88%86%e7%a1%85%e8%83%b6%e5%a8%83%e5%a8%83%e5%b8%82%e5%9c%ba%ef%bc%81%e4%ba%ba%e5%b7%a5%e6%99%ba%e8%83%bd%e5%8a%a0%e6%8c%81%e6%83%85%e6%84%9f%e5%af%84%e6%89%98%ef%bc%8c%e8%83%8c/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Thu, 27 Feb 2025 00:42:01 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[机器人与具身智能]]></category>
		<category><![CDATA[AI与硅胶结合]]></category>
		<category><![CDATA[AI变现]]></category>
		<category><![CDATA[AI变现方式]]></category>
		<category><![CDATA[AI市场]]></category>
		<category><![CDATA[AI情感]]></category>
		<category><![CDATA[AI成人应用]]></category>
		<category><![CDATA[AI成人模式]]></category>
		<category><![CDATA[AI成人版]]></category>
		<category><![CDATA[AI成人用品]]></category>
		<category><![CDATA[AI成人领域]]></category>
		<category><![CDATA[AI技术]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek产品]]></category>
		<category><![CDATA[DeepSeek技术]]></category>
		<category><![CDATA[DeepSeek赋能]]></category>
		<category><![CDATA[Grok]]></category>
		<category><![CDATA[Grok性感语音]]></category>
		<category><![CDATA[TPE材料]]></category>
		<category><![CDATA[WM DOLL]]></category>
		<category><![CDATA[中国出口]]></category>
		<category><![CDATA[中国硅胶出口]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人形机器人]]></category>
		<category><![CDATA[人形机器人表情]]></category>
		<category><![CDATA[全球销量]]></category>
		<category><![CDATA[具身技术]]></category>
		<category><![CDATA[具身智能]]></category>
		<category><![CDATA[具身智能进展]]></category>
		<category><![CDATA[具身机器人]]></category>
		<category><![CDATA[医用硅胶]]></category>
		<category><![CDATA[塑料骨骼]]></category>
		<category><![CDATA[广东硅胶材料]]></category>
		<category><![CDATA[性感语音模块]]></category>
		<category><![CDATA[恐怖谷效应]]></category>
		<category><![CDATA[情感寄托]]></category>
		<category><![CDATA[情感智能]]></category>
		<category><![CDATA[成人AI互动]]></category>
		<category><![CDATA[成人AI技术]]></category>
		<category><![CDATA[成人产业]]></category>
		<category><![CDATA[成人内容AI]]></category>
		<category><![CDATA[成人化趋势]]></category>
		<category><![CDATA[成人机器人]]></category>
		<category><![CDATA[成人版GPT]]></category>
		<category><![CDATA[日本Orient industry]]></category>
		<category><![CDATA[智能硅胶娃娃]]></category>
		<category><![CDATA[智能音箱功能]]></category>
		<category><![CDATA[硅胶供应链]]></category>
		<category><![CDATA[硅胶和TPE]]></category>
		<category><![CDATA[硅胶娃娃]]></category>
		<category><![CDATA[硅胶娃娃价格]]></category>
		<category><![CDATA[硅胶娃娃全球销售]]></category>
		<category><![CDATA[硅胶娃娃制造]]></category>
		<category><![CDATA[硅胶娃娃厂家]]></category>
		<category><![CDATA[硅胶娃娃发展]]></category>
		<category><![CDATA[硅胶娃娃品牌]]></category>
		<category><![CDATA[硅胶娃娃市场]]></category>
		<category><![CDATA[硅胶娃娃情感记忆]]></category>
		<category><![CDATA[硅胶娃娃的历史]]></category>
		<category><![CDATA[硅胶娃娃的未来]]></category>
		<category><![CDATA[硅胶娃娃维护]]></category>
		<category><![CDATA[硅胶娃娃销量]]></category>
		<category><![CDATA[硅胶娃娃骨骼]]></category>
		<category><![CDATA[硅胶材料]]></category>
		<category><![CDATA[美国Real Doll]]></category>
		<category><![CDATA[语音模块]]></category>
		<category><![CDATA[金三WM DOLL]]></category>
		<category><![CDATA[金三完美]]></category>
		<category><![CDATA[金三完美DeepSeek]]></category>
		<category><![CDATA[金三硅胶娃娃]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1946</guid>

					<description><![CDATA[## 啊啊啊啊啊啊啊！硅胶娃娃也AI了！DeepSeek直接让销量爆了！！！🔥

家人们！！！你们听说了吗？
硅胶娃娃竟然也AI化了！！！
没错，就是那种成人用品，不是儿童玩具啊！
这次DeepSeek直接让这玩意儿卖爆了！！！🛒

### 为什么这么火？
因为DeepSeek搞了个语音模块，直接集成到了硅胶娃娃里！
这还不算完，它还能记住你和它互动的细节！
下次你再和它聊天，它还记得你上次说了啥！
这简直是情感寄托的终极神器啊！！！💘

### 海外大卖！第一批200个秒光！！！
全球每年硅胶娃娃也就卖几千个，结果这波直接起飞！
广东中山的WM DOLL火了，连国内硅胶材料公司的股票都跟着涨！
这波AI赋能，简直是破天的富贵！！！💰

### 硅胶娃娃=智能音箱？
虽然它不会动，但里面有超多传感器！
能识别姿势、温度、触感，甚至你摸到哪个部位它都知道！
再加上DeepSeek的对话能力，简直是长了人身体的智能音箱！
沉浸感直接拉满，感觉像在和真人聊天！！！🤖

### AI成人化，未来的趋势？
其实AI成人化早就有苗头了，ChatGPT和Grok都开放了成人模式！
加上性感语音模块，效果直接起飞！
现在硅胶娃娃+AI，不仅解决了生理需求，还能情感慰藉，这谁顶得住啊！！！🔥

### 硅胶娃娃的全球市场
美国RealDoll、日本Orient Industry，中国金三完美占了中国出口量的40%！
硅胶材料都是中国造的，高级医用硅胶，环保、柔软、耐高低温！
价格也比国外便宜，最便宜的1千多，最贵才1万7，性价比超高！！！💸

### 总结
AI时代，硅胶娃娃直接升级成了情感寄托神器！
DeepSeek赋能，销量爆表，未来人形机器人可能真的要来了！
不过，这玩意儿还是小众高端消费，维护成本高，慎入啊！哈哈~

**#硅胶娃娃 #AI #DeepSeek #情感寄托 #成人用品**
**#AI成人化 #人形机器人 #硬核科技 #破天富贵**

—
**你心动了吗？评论区聊聊吧！👇**

DeepSeek引爆硅胶娃娃市场！人工智能加持情感寄托，背后细节全揭秘

广东中山金三完美公司通过将DeepSeek大模型与语音模块集成到硅胶娃娃中，创造出情感慰藉与人工智能结合的新产品。其品牌WM DOLL一经推出，便在全球市场引爆销售热潮。DeepSeek的对话能力使硅胶娃娃从传统阶段升级为具备情感记忆的智能设备，同时带动相关产业链如硅胶和TPE材料的股票大涨。这种创新模式标志着AI在成人用品领域的快速成人化趋势，同时也为人形机器人未来发展铺平了道路。尽管市场前景广阔，但硅胶娃娃仍面临材料制作成本高、维护复杂和社交接受度低等挑战。
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="DeepSeek引爆硅胶娃娃市场！人工智能加持情感寄托，背后细节全揭秘" width="900" height="506" src="https://www.youtube.com/embed/QXchvaQdqHs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>DeepSeek推动了硅胶娃娃的大卖。大家好，欢迎收听老范讲故事的YouTube频道。DeepSeek确确实实改变了很多的行业与渠道，甚至DeepSeek之后，整个AIGC领域进行了一次大的洗牌，或者进行了一次方向调整。那么，这一次轮到了谁呢？轮到了硅胶娃娃。</p>



<p>这里讲到的硅胶娃娃是一种成人用品，跟儿童玩具是没有关系的。那么，这一次接入DeepSeik大卖的硅胶娃娃是谁家的呢？是广东中山金三完美这样的一个公司，他们做的这个品牌叫WM DOLL。一般好像硅胶娃娃都是这个词。他们呢，把这个DeepSeek加上语音模块，直接集成到了硅胶娃娃里面去，还加上了一些内部的存储单元。就是它可以记住一些主人与硅胶娃娃之间沟通交流的细节，然后下一次你再跟他沟通交流的时候，他可能还记住一部分，所以可以形成非常好的这种情感寄托。</p>



<p>这个娃娃呢，现在在海外大卖，第一批200个扔出去以后秒光。你说200个这玩意有多少？大家注意，硅胶娃娃这个东西，全世界每年也就卖个几千个，已经算是非常非常高的销量了。那么，国内做硅胶材料的各种上市公司呢，股票都大涨。这个金三完美他们是没有上市的，但是给他们供材料的，都已经借上这波东风了。DeepSeek来了，我股票涨了，为什么？没想明白，原来有人做了硅胶娃娃，套了DeepSeek的壳了。这个也真的是破天的富贵就到头上了。</p>



<span id="more-1946"></span>



<p>很多人说了，说这不是人形机器人来了吗？这个硅胶娃娃这绝对的人形机器人，1:1等比例的。大家注意这个东西呢，人形有，没问题，也算个机器，因为里头有语音模块，还有很多传感器，这东西算个机器。但是呢，距离机器人还非常非常远，因为这东西不会动。所有的硅胶娃娃都是不动的，它呢是外边是硅胶，里边呢是金属的骨骼与关节，然后再加上各种传感器。它的传感器呢，比如姿态，它能识别自己是站着呢，坐着呢，躺着呢，它是能够识别这些东西，然后呢，也可以识别出温度来。</p>



<p>就是你比如说，你把手放在什么地方了，哪个地方是有温度变化的，以及呢一些触感。我到底摸到了这个硅胶娃娃的哪一个部位了，以及一些力度和这种运动传感器。运动传感器是相对来说比较好做的嘛，就是它的硅胶娃娃里有一大堆的传感器，但是不会动。</p>



<p>DeepSeek真正赋能的东西呢，就是对话。原来我还讲过DeepSeek这个大模型，你直接去调用的时候是百无禁忌的。所以你想搁在硅胶娃娃里头，再稍微写一个提示词库的话，做一个提示词工程呢，这个想象空间很大。咱们这不能展开了，再加上一些本地的记忆，他会记着说，你这个这一次快了点慢了点，或者是这个应该如何安慰你一下，或者怎么夸耀你一下。他有很多这样的这种功能在里面。所以呢，除了原来解决生理需求之外呢，现在还可以进行一定的情感寄托了。这个，所以就大卖了。</p>



<p>那么AI呢在快速的成人化。其实AI出来的时候呢，就有一些人思考过如何把它应用到成人领域里边去。这个事没什么可不好意思的，就是互联网整个就是靠成人产业发展起来的。最早的互联网都是纯静态的，然后最早开始做动态网页，就是我进来以后需要登录，需要这个支付，然后登录支付了以后才可以看到不同东西的，全都是色情网站。就是色情内容或者叫成人内容，是推动互联网快速发展的一个原动力。那么到AI领域里头，又在向这个方向发展。这个也没办法，因为整个的AI行业到目前为止，谁也没有找到特别好的变现方式。那么，又想到了这个最古老的行业，那么大家就冲上去了。</p>



<p>现在呢，ChatGPT已经开放了成人模式和成人版本。当然在这个里边的话，它还是道德标准比较高的。你说了一些比较过分的话，它还是会拒绝服务的哈，但是已经比原来放得开多了。然后Grok，就是马斯克XAI的这个模型，从来就是百无禁忌的，可以说很多很多东西。而且现在开放了语音模式以后，专门有性感语音模式，大家可以去尝试一下。但是现在只有英语，其他的语言好像现在都没上来。</p>



<p>就是你去跟他讲中文，他也会给你回复英文的。至于是不是性感这个事，我没有能力去品鉴了，大家自己去试试就好了。反正这个已经快速成人化了。现在如果能够把Grok的性感语音模块接到这个硅胶娃娃里去的话，这个效果会更好。因为大家注意，Deepseek本身是没有语音能力的，你还是要做语音识别，然后扔给Deepseek去生成，生成完了以后再给你说出来。这个还是没有像GPT4O高级语音的功能这样的。这个端到端的语音能力那么好使，像Grok，包括像豆包，其实都是有这种端到端语音能力的，这个还是不太一样的。</p>



<p>什么叫端到端？就是你发现你跟他聊天的过程中，你没法打断他，这个就不是端到端的。你如果这个跟他聊天的过程中，你可以打断他，可以跟他来回抢话的，这个效果要好很多，就完全体验是不一样的。所以现在的AI也在快速地寻找变现方式。加上了语音部分之后的硅胶娃娃呢，肯定还是不能动，这个还是硅胶娃娃，是一个长了人的身体的智能音箱，你基本可以这么来理解这个东西。当然了，因为有人的身体吧，它的沉浸感一定会巨大的提升，就是你还是觉得我在跟一个人说话，而不是在跟一个音箱说话，而这块是有变化的。</p>



<p>再加上各种传感器的反馈信息，以及大模型的助力的话，是可以做更多的情感慰藉的。那你这个坐着的怎么样，然后站着的怎么样，躺着的怎么样，他可以把这些都从传感器里边读出来，然后再根据你的语言，你的动作以及过往的一些记忆，然后生成新的这句话来跟你说，他就干这么样的一个事情。当然现在这个智能硅胶娃娃呢，还属于比较早期的一个阶段，为什么？因为大模型本身生成成人内容，交互呢还不是特别完善，特别成熟，而且可能在短期内也未必会有很多的人和资源投入进去进行研究。所以呢，在这块，安全方面应该还有待确认吧。但是如果有兴趣的话，可以整一个自己回来去玩耍一下。那么硅胶娃娃是一个什么样的产业呢？它是一个挺小众的高端消费，这东西挺贵的。</p>



<p>而且，维护成本也挺高。我是见过硅胶娃娃，但是怎么说呢？就是你看它是像真的，上手的话一点都不像。为什么呢？你比如说吧，最简单的手指头。我们的手指头是这个骨节呀，这个手指之间你能摸出来，就是你从不同的角度上摸，它都是有差异的。这个侧面、正面、然后反面，它都是有差异的。但是硅胶娃娃的那个东西呢，就是它确实是手指头，然后这个手也是会动的，而且动到一个位置以后，它能停下来。但是呢，他这个手指的所有的方向，你捏捏起来是一样的。他等于就是把一个金属的，或者说你认为他是铁丝的或者铝丝的，这样的一个骨骼做在这了。然后呢，把一个硅胶套在外边，一个软硅胶手套套在外边。你从各个角度捏，它的厚度什么都差不太多，大概就是这样的一个东西。</p>



<p>这个一年的话，在全球大概也就是销售个不到1万个，几千个的样子。他这个东西呢挺贵的，价格待会我们可以说一下。而且呢，挺笨重的，也也挺占地。你想成人大小嘛，你还要给他买衣服，买各种的这个装饰品。这个就跟玩手办似的，他只是比较大而已。那他这个东西很占空间，你不可能说我一下买一大堆。他不像手办似的，我可以买很多四处去摆起来，因为他小嘛。这个东西很大，而且呢它维护成本非常高。就是这个硅胶娃娃甭管你是用了也好，还是放那放着也好，它的这种比如出油，这个清洗，这个还是挺麻烦的一个东西。而且呢玩这个东西呢，也容易被人另眼相看。你说真的整一硅胶娃娃搁家里头，或者说让别人知道你在玩硅胶娃娃的话，这个很多人都觉得你精神有问题。所以这个是一个相对比较小众的。</p>



<p>全世界最大的硅胶娃娃的公司呢，是美国公司叫Real Doll，叫真实的娃娃。它是全世界第一。然后第二个呢叫Orint industry，是日本的全世界第二。然后中国出口呢，大概占全球销售量的55%。其实大量都是在中国造的。然后呢，广东中山的这个金三完美，他是占中国出口量的40%。他在中国最大。那么他头一个把DeepSeek。</p>



<p>装到了这个硅胶娃娃里边去。中国呢，其实是原料和这个廉价娃娃的产地。主要咱们是生产硅胶，硅胶娃娃。硅胶娃娃核心的硅胶都是中国生产的。硅胶呢，就是高级医用无毒软体硅胶，具有环保、柔软亲肤、耐高低温，就是你高温低温都可以，然后呢抗老化。它有这样的这些特性。它主要在国内的一个叫瑰宝科技，是上市公司。然后呢，润和材料也是个上市公司，还有一个叫宏达新材。等于这几家公司，跟着这个DeepSeek和硅胶娃娃，股票就涨起来了。</p>



<p>然后还有一种做这个硅胶娃娃的材料呢，叫TPE，叫热塑性弹性体。这个东西呢比较便宜，柔软度较高，而耐用性呢要稍逊于硅胶，就是它的寿命比较短。部分产品呢是结合硅胶的头以及TPE的身体，以平衡手感和便携性。这东西应该还是比较轻一点。这个东西主要靠进口，现在国内呢也开始生产了。比如说叫浙江众诚这个公司呢，现在也开始去生产TPE，它的成本比进口的还要再低30%，已经开始供货了。</p>



<p>然后其他的东西，像什么关节骨骼呢，有些是金属的，还有一些是种工程塑料的。中国产的娃娃呢，价格大概是日本的1/10，大概是这样的一个程度，到不了1/10吧。这个具体还是要看它是什么材料的。现在中国的娃娃呢，在海外卖的还是相当不错的。就是美国的Real Doll，大概是3.5万到7万人民币一个，全硅胶。人家就是我们就做好的，就这样的一个情况。日本的这个Orient industry呢，他们大概是5,000到4万一个，他们也有便宜的，主要也是全硅胶，医用硅胶来做。</p>



<p>中国比如说像金三吧，他们呢就是做这个TPE的，就是身体是TPE的，但是头是硅胶的。他们呢最便宜的可以做到1,000多块钱，但贵的呢也有上万的。然后全硅胶的话，最便宜的是8,000，最贵的大概是17,000。总的来说还是要比国外便宜很多的。现在呢，人形机器人这样的一个课题，或者叫真正的具身智能，正在一块一块的向我们走来。这个说的有点瘆人，这个讲鬼故事了。</p>



<p>怎么跟一块一块的向我们走来呢？大家看，比如说像宇树科技，还有在中国其实北上广深、杭州，有大量的人形机器人公司现在在创业。他们在干嘛呢？就是在搞定肢体，以及关节和基础动作。你说我现在可以去打拳了，可以翻跟头了，可以转手绢了，他实际上做的就是这个关节，以及各种的动作控制。这个他们现在在努力的往前走，而且在努力的把成本降下来，可以把东西做的很便宜。</p>



<p>像前两天咱们讲的Figure AI、特斯拉、Open AI，还有今天加上了DeepSeek，它们呢是在大模型领域里头快速的推进和更新。因为你想，最后一定还是要有大模型进行底层的支撑吧，这个还是需要的。然后像金三，像今天咱们讲的广东省中山市的金三，他们其实搞定的呢，是皮肤和整个这个躯壳。宇树科技把这个关节肢体，或者说里头的骨骼做好了，然后就可以找这帮做硅胶的人套一层皮，这个事是可以的。我记得原来看《西部世界》最后一季的时候，他们里头就有一集是这个女主角自己往身上穿一身皮，穿好了以后就变人了。做硅胶娃娃这帮人就是做皮的。</p>



<p>然后还有一些机器人公司是干嘛的？是专门做脸的。为什么要专门做脸呢？你像我们脸上是有多少多少肌肉，可以组合起来生成多少表情，这个是需要专门处理的。所以现在还有一批创业公司在专门的做脸，因为这个恐怖谷效应。就是当我们看到一个东西像人的时候，越像人，他的一些细微的差异，你有时候连说都说不清楚到底差在哪儿，你会觉得看着浑身不舒服就难受。而这个做脸的公司就想办法要把这个恐怖谷效应给你去掉。</p>



<p>讲到这稍微多了讲两句，就是硅胶娃娃一般因为他不会动嘛，而这个表情一般看起来还是稍微有点吓人的，因为它是没有表情的，或者说它这个表情是固定的。就是你甭管你对它做任何事情，你对着它说话，对着它做任何的表情，它都不会有任何表情回应回来，所以还是有点吓人的。所以这个是专门还是需要公司才去做，这就是一片一片的，一块一块的。</p>



<p>具身智能人形机器人在走向我们。以今天现在的这个成就来看，可能未来十年之内，完整的人形机器人就有可能出现在我们身边，而且可以以假乱真。就像我们看到的，比如像《底特律变人》或者是《西部世界》这样的里面的这种人形机器人，可能在未来的10年就会真的走到我们身边来。这个我觉得还是值得期待的。</p>



<p>当然，这个硅胶娃娃这个事情呢，大家今天听着乐呵一下就行了，就不建议大家自己去尝试了。万一你买了一个试用，然后被身边的人这个鄙视了，这个事跟我没关系。反正我是没试用过。</p>



<p>好，这个故事今天就讲到这里。感谢大家收听，请帮忙点赞、点小铃铛，参加Discord讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>DeepSeek开源力量爆发！Flash MLA登场，英伟达的精准刀法遇到重大挑战！</title>
		<link>https://lukefan.com/2025/02/26/deepseek%e5%bc%80%e6%ba%90%e5%8a%9b%e9%87%8f%e7%88%86%e5%8f%91%ef%bc%81flash-mla%e7%99%bb%e5%9c%ba%ef%bc%8c%e8%8b%b1%e4%bc%9f%e8%be%be%e7%9a%84%e7%b2%be%e5%87%86%e5%88%80%e6%b3%95%e9%81%87%e5%88%b0/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Wed, 26 Feb 2025 00:47:10 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[OpenSource]]></category>
		<category><![CDATA[BF16精度]]></category>
		<category><![CDATA[Blackwell架构]]></category>
		<category><![CDATA[CPU超频对比]]></category>
		<category><![CDATA[CUDA-LESS]]></category>
		<category><![CDATA[CUDA优化]]></category>
		<category><![CDATA[CUDA优化应用]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Flash Attention 2]]></category>
		<category><![CDATA[Flash Attention 3]]></category>
		<category><![CDATA[Flash MLA]]></category>
		<category><![CDATA[Flash MLA核心功能]]></category>
		<category><![CDATA[FP16]]></category>
		<category><![CDATA[FP32]]></category>
		<category><![CDATA[GB200芯片]]></category>
		<category><![CDATA[GPU优化技术]]></category>
		<category><![CDATA[GPU内存带宽优化]]></category>
		<category><![CDATA[GPU内存架构]]></category>
		<category><![CDATA[GPU带宽提升]]></category>
		<category><![CDATA[GPU性能优化]]></category>
		<category><![CDATA[GPU技术分析]]></category>
		<category><![CDATA[GPU架构设计]]></category>
		<category><![CDATA[GPU禁运]]></category>
		<category><![CDATA[GPU超频]]></category>
		<category><![CDATA[H100芯片]]></category>
		<category><![CDATA[H800芯片]]></category>
		<category><![CDATA[HBM内存]]></category>
		<category><![CDATA[Hopper系列芯片]]></category>
		<category><![CDATA[Huggingface优化]]></category>
		<category><![CDATA[H系列GPU性能]]></category>
		<category><![CDATA[Llama CPP优化]]></category>
		<category><![CDATA[MIT协议]]></category>
		<category><![CDATA[MIT开源协议介绍]]></category>
		<category><![CDATA[Transformers架构]]></category>
		<category><![CDATA[中国GPU限制]]></category>
		<category><![CDATA[中国芯片制造]]></category>
		<category><![CDATA[分块调度]]></category>
		<category><![CDATA[分页式间值缓存]]></category>
		<category><![CDATA[大模型推理]]></category>
		<category><![CDATA[大模型推理优化]]></category>
		<category><![CDATA[并行计算]]></category>
		<category><![CDATA[开源创新]]></category>
		<category><![CDATA[开源解决方案]]></category>
		<category><![CDATA[开源项目]]></category>
		<category><![CDATA[显卡市场格局]]></category>
		<category><![CDATA[显卡性能提速]]></category>
		<category><![CDATA[显存碎片管理]]></category>
		<category><![CDATA[美国出口限制]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[英伟达GPU市场]]></category>
		<category><![CDATA[英伟达H100提速]]></category>
		<category><![CDATA[英伟达H800带宽]]></category>
		<category><![CDATA[英伟达Hopper架构]]></category>
		<category><![CDATA[英伟达商业策略]]></category>
		<category><![CDATA[英伟达市场竞争]]></category>
		<category><![CDATA[英伟达新架构]]></category>
		<category><![CDATA[高性能计算]]></category>
		<category><![CDATA[高效多层注意力解码内核]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1944</guid>

					<description><![CDATA[啊啊啊啊啊！DeepSeek开源周打响第一炮，英伟达真的要愁了！🔥

大家好，欢迎来到老范讲故事的时间！今天我要给大家带来一个超级震撼的消息——DeepSeek开源周第一天发布了Flash MLA，这是一个基于MIT协议的开源项目，短短一天就获得了数千个星星！🌟

🔥 **Flash MLA是什么？**
Flash MLA全称高效多层注意力解码内核，主要干了三件事：
1. **分页式间值缓存**：极大地提高了内存分配、释放和读写的效率，降低了显存碎片的产生。
2. **BF16精度知识**：在保持数据范围不变的情况下，提升了大模型的运算效率。
3. **分块调度与并行计算**：充分利用GPU的并行计算能力，提升吞吐量。

🚀 **对英伟达的影响**
Flash MLA必须在英伟达Hopper系列芯片上使用，特别是在H800芯片上进行了提速，速度从2TB/s提升到了3TB/s，这让英伟达有点哭笑不得。虽然给GPU做了提速，但提速后的性能可能不符合某些出口规定，英伟达这下真的要头疼了！

💥 **谁会用这个？**
Flash MLA主要用于推理系统，如VMRM系统和小型LM推理架构，像Huggingface、Transformers等都会得到优化。虽然目前只适用于英伟达GPU，但未来或许可以借鉴其思路，打破英伟达的垄断。

📈 **开源周的期待**
这只是DeepSeek开源周的第一天，接下来还有四天的开源项目发布，让我们一起期待更多震撼的消息吧！

家人们，千万不要错过！关注我，第一时间获取最新资讯！💪

#DeepSeek #开源周 #FlashMLA #英伟达 #AI #GPU优化 #科技前沿 #创新 #开源项目 #性能提升

DeepSeek开源力量爆发！Flash MLA登场，英伟达的精准刀法遇到重大挑战！

DeepSeek在开源周第一天推出了重磅项目Flash MLA，这个基于MIT协议的创新性技术大幅优化了英伟达H100和H800芯片的性能，使其带宽达到了惊人的3TB/s。作为一款先进的高效多层注意力解码内核，Flash MLA通过分页式间值缓存、BF16精度运算和分块调度并行计算三大核心功能，显著提升了大模型推理效率。尽管该项目基于英伟达自家开源技术开发，但其对H800的性能提升让英伟达面临出口限制的合规难题，同时对未来GB200等新一代架构的推广也造成了潜在压力。除此之外，中国本土芯片厂商也有机会从思路中受益，但直接落地仍面临技术和架构壁垒。作为开源周的第一步，Flash MLA已经引发了对英伟达垄断的广泛讨论，让人期待后续几天DeepSeek将公开的其他激动人心的成果。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="DeepSeek开源力量爆发！Flash MLA登场，英伟达的精准刀法遇到重大挑战！" width="900" height="506" src="https://www.youtube.com/embed/PGDMx1bFl1E?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>DeepSeek开源周第一炮打响，这次英伟达可真的有的愁了。大家好，欢迎收听老范讲故事的YouTube频道。DeepSeek号称要做开源周，也就是在这一周里边，连续5天发布5个开源项目。那么第一炮打的是什么呢？这个产品叫Flash MLA，这是一个MIT协议的开源项目。待会我们再去讲什么是MIT协议。一天上来就直接获得了几千个星星，就是你把项目发布到GitHub上以后，如果有人喜欢的话会打一个星星。打了星星以后的话，这个项目未来有各种的更新和迭代，我们是会收到通知的。所以很多的开源项目，是用星星的数字来衡量自己项目的受欢迎程度的。</p>



<p>这个项目呢，其实对于绝大多数的使用者来说，短期之内是不会有影响的。什么叫短期？可能就是几个月的时间之内，不会有特别大的变化。但是，可能过了这几个月，这个变化就会逐渐的显现出来。英伟达这次到底能不能挺得住，是会变得好还是会变得坏？这就是我们今天要讲的故事。</p>



<p>英伟达面对Flash MLA这样的一个项目呢，应该有点哭笑不得。为什么呢？这个是必须在英伟达Hopper系列芯片上使用的一个技术，也就是离开英伟达芯片你跑不了。所以这玩意是给英伟达芯片再去做优化。但是呢，这里有个问题，英伟达的H100是被美国禁运的，中国是不可以购买的。中国只可以购买H800，也就是英伟达经过精准的刀法裁切以后的这个版本。它在H800的这个基础上呢进行了提速，这就是这一次的Flash MLA真正给出来的东西。</p>



<span id="more-1944"></span>



<p>理论上的H100应该也可以提速，因为它都是Hopper的架构嘛。但是英伟达现在正在推的GB200，它就不是Hopper的这个架构了，它呢是Blackwell黑景架构的。那么在这个上面就不起作用，或者说没有经过Blackwell芯片的这种兼容性测试，不知道在车上好不好使。这种GB200的芯片，第一个现在到底有没有交货，或者交了多少了，其实谁也说不太清楚。</p>



<p>虽然这个山姆奥特曼说：“我在微软机房里看到了。”但是没有那么大的感觉说，这个东西真的改变了什么。第二个呢，就是中国不允许买嘛。既然不允许拥有GB200，那我凭什么去给GB200做优化？即使DeepSeek手里边有一些GB200，我做了优化了，那我也不能说出来。我不能告诉你说：“我偷了一个这玩意回来，我优化了再给你公布出来。”这个与理不合，对吧？这就是对于英伟达的一个小影响。这个东西上来以后，大家没有那么踊跃的去买GP200了，他还接着去买H100、H800去了。</p>



<p>还有一个问题是什么？就是H800的越狱的问题。美国政府限制的是什么呢？你这个东西算力有多少他其实不管，他主要管的是内存带宽，也就是GPU的芯片，跟GPU的这个HBM内存之间，每秒钟到底可以传多少数据。它是限制了这个东西。对美国政府给出的限制呢，是2000GB每秒，也就是两T每秒的这个速度。H100呢是3.35TB，肯定是已经超过了。H800呢，老黄精准一刀，它就是2TB的。虽然有的时候可能大家跑不到，但是人家的标称就是两TB，是符合出口要求的，可以卖给中国。现在上了Flash MLA之后，它的速度就提高到了3TB，这个就稍微有一点点尴尬了。这个以后到底还能卖还是不能卖，还是怎么办？我估计够老黄头疼一阵了。这个是为什么说，英伟达遇到了这样的一个Flash MLA以后，稍微有一点点哭笑不得。你确实给我的显卡做了提速了，但是提速完了以后呢，不太符合某些规定了。</p>



<p>那么说到这了，Flash MLA到底是什么？咱们这一块要后说，因为呢可能很多听故事的人，对于这一部分就没有那么大兴趣了。咱们尽量用简单的方式来讲。这个东西呢全称呢，叫高效多层注意力解码内核。这个名字反正有说没有懂，每个字都认识，放在一块不知道什么意思。他呢其实干了三件事。第一件事呢叫分页式间值缓存，这意思是什么呢？就是我们在内存里有很多的数据，本来我要去读这些数据的时候呢。</p>



<p>应该是叫随机读取。就是我得到一个地址，然后我到这个地址上，把这个数据读出来或者写进去。但是这样的话效率就会很差，为什么？因为你这个内存很大嘛。而且我今天分配了一块内存，待会我把这个内存释放掉了。如果是随机的去做的话，那就会出现很多碎片，不连续的这种内存会存在里头，这个会降低读写的速度。</p>



<p>Flash MLA说，咱们这样：以64个内存单元为一个页面，咱们进行分页管理。每一次我就不再分给你具体的多大多小的，我就是按多少页给你分。我想要多少字节的内存，或者多少位的内存，我原来是可以随便分的，现在不行，必须是64个数一页，你必须按整数页分。他用了这样的一个简单的方法，就可以极大的提高内存的分配、释放的效率，以及读写的效率，还可以极大地降低显存碎片的产生。就是你再产生碎片，也是64个数放在一块的一个碎片。这个对于未来的这种使用，就会方便很多。因为碎片这个东西有时候很讨厌，比如说我现在有一份文件，我这份文件的前5页存在一个地儿了，后3页存在一个地儿了，中间几页我再存在一个地儿了。等你需要取这数据的时候，要上三地去把这数据取出来，那这事不就费劲了吗？现在说，哎，我按整页算，哪怕你用不完我浪费一点，剩一块不要了没关系，但是我每次分配、每次释放都是一整页。那这个就是大家理解的，他干的第一个事。</p>



<p>第二个事是干嘛呢？他做了一个叫BF16精度的一个知识。咱们看很多的这种大模型，后边都是有一数，都是FB什么FB什么，FB32、FB16、FB8，甚至还有FB4的这样的数据。但是这一次呢，他玩了一个叫BF16，什么意思？咱们正常情况下呢去训练大模型都是用一个完整的浮点数，就是FP32。什么意思呢？f呢就是float，P呢是point，浮点32意思就是说，我这一个数是一个32位的一个空间。32位就是32个010101，这样放在一起这是一个数。在这个数里头呢有一位代表正负，有8位呢是代表指数。</p>



<p>剩下的23位代表的是精度。我们写很多的叫科学计数法，都是先是正的或者负的，然后是3点多少多多。这个是长度代表精度的，小数点后边越长，你精度就越高。最后乘上10的多少次方，一般代表浮点数是这样来写的。后边有8位是代表10的多少次方的，这个东西叫指数。有23位是代表精度，也就是点后边有多少位，再加上一个正负，这就是传统的FP32。</p>



<p>正常的一般使用的是FP16。就是你都用FP32去使用的话，等于你每一次进行比较，进行搬运，进行运算都很慢，而且非常非常消耗资源。所以呢，很多时候，这个大模型工作是工作在FP16的这个基础上的。FP16什么意思呢？它这个里头还是有一位是代表符号的，代表精度的是有10位，代表指数的有5位。这个呢就会发生一个问题，就是它的精度降低了。FB32那个是有23位代表精度的嘛，那这个只有10位了。还有一个很大的问题是什么呢？就是它的范围变小了。什么叫范围？就是乘以10的多少次方，这个数是它的范围。原来呢（FB32）是有8位来去代表范围的，现在呢（FB16）只有5位了，使得很多的模型的规模就会受到限制。</p>



<p>那么这一次呢，DeepSeek给出了这个东西叫BF16。它们呢使用的是什么？就是它的指数依然是8位，跟FP32这个是一样的。还有一位是代表符号，这个正负你必须还得留着。剩下的呢就剩的就比较少了，他只有7位来去代表精度。所以他把精度降低了，但是呢指向的这个数据范围，其实跟FP32是一样。它是通过这样的一个方式，让这个大模型可以在精度下降，但是呢指向范围不变的情况下去进行运作，效率有极大的提升。</p>



<p>这是第二个。第三个是什么呢？就是叫分块调度与并行计算。将计算任务分解为多个小块，进行并行处理，充分利用GPU的并行计算能力，提升吞吐量。这个就是刚才我们讲的3TB每秒的，这个GPU跟显存之间的带宽，就是从这里来的。实际上这一次主要就是给了这么三个东西。那你说这个东西算不算创新呢？</p>



<p>每一次中国人给出东西来，一堆人说：“哎呀，这个创新了，这个抄袭了。”首先要讲说灵感来自于叫Flash attention 2和3，以及有一个叫COT LASS这样的两个论文，或者两个开源项目，叫CUDA-LESS。CUDA-LESS应该也是CUDA上面做的一些什么优化的这种东西。这两个项目呢，是英伟达自家的开源项目，就是英伟达自己就把它开源了，然后也是MIT协议。咱们现在讲一下MIT协议什么意思，叫允许用户自由使用、修改和分发代码，但是需要在修改后的代码中或者软件中保留原来的许可声明。就是你可以拿着代码回来改，也可以自己去用，自己去分发，但是呢，我原来声明了，说我这是一个MIT的项目，你在新的软件里你必须要留着它。这一次的Flash MLA也是一个MIT协议的开源软件，所以呢它是完完全全符合开源规范和道德的一种创新。就是我从哪来的，引用写好了，我在这个基础上遵守原来的协议，我又把它开源了，大概就是这样。</p>



<p>那么说个人话吧，讲了这么半天这东西到底干什么呢？这数据到底怎么算呢？估计大家稍微有点头晕了，咱们讲一故事。比如说吧，有一家这个跑车的公司，我造跑车的，我出了很多很多的手册，告诉你这个跑车应该是怎么去做的，然后有哪些参数可以调整，如何去优化。有一大堆的修车厂，这些修车厂或者叫改车厂吧，他们呢会使用这些手册做一些车厂允许或者不允许的改装。你只要到改车厂了以后嘛，肯定有一些修改是超出车厂允许范围之外的，这个没有办法。修改完了以后呢，突然有一家特别大的这个改车厂决定把自己改车并且夺得冠军的方法给公开出来，这就是我们今天看到的东西。他们现在使用的Flash MLA这个东西，已经在这个DeepSeek自己家的服务器上得到验证了，说这东西确实好用，然后把这个拿出来了。那么其他改车厂呢，就可以拿着这个已经公开出来的这个标准继续跟进，接着往前跑了。现在麻烦是什么呢？</p>



<p>第一个修改方案是针对旧发动机的修改方案，那么它影响了新发动机的销售。然后，第二个方案在优化之后，与某些交管部门的规定相互冲突了。这就是这一次Flash MLA发布对于英伟达可能的一些影响。</p>



<p>那么，谁会用这个玩意呢？就是这个Flash MLA到底对什么样的系统有帮助？它主要是用于推理的，不是用于训练的。所以呢，它主要是优化VMRM系统，或者叫高效的大模型推理架构。像我们使用的各种聊天系统，实际上背后你都是要有一套这种推理架构，然后再去挂模型才可以用起来。包括像Mistra、XAI这样的，它们背后都是要有这样的推理架构的。</p>



<p>然后，一些小型的LM推理架构呢，可能也会有提升。比如像Huggingface、Transformers或者是Llama CPP，这些小型的系统应该也会得到优化。优化了以后的话，在原来的H系列的GPU上，甭管你是H100还是H800，你都可以极大的提升效率。</p>



<p>那你说对于国产和非英伟达系列的芯片，会不会有提升呢？很多人再去讲说英伟达的垄断被打破了，这个国产芯片看到机会了。首先咱们要讲思路可以借鉴，就是他给了你这样的一个思路。但是呢，要注意Flash MLA是基于CUDA干活的。前面他引用的说我借鉴了谁呢，也是借鉴了英伟达根据CUDA去做的一个开源项目的这个思路，在这个地方修改的。所以直接用是用不了的。</p>



<p>这周应该还会有很多有趣的东西要发布，通过开源的方式不断的打破封锁，打败这个精准的刀法。这就是我们这一周有可能会看到的东西。那么精准的刀法是怎么起作用的，大家知道吗？肯定呢是有大量的门会要关上，就是我设计这个项目的时候，里面一定有很多的开关和门。那我关上其中一部分的门，就可以实现刀法精准了。但是呢，大家去设计这个系统的时候，他不是为了关门设计的，还是为了提高效率设计的。所以有很多的论文开源项目，他都会去讲说我这个东西当时是怎么设计，为什么就能够提效。</p>



<p>这些东西都是公开的。大部分人其实是不会去读这些文档，即使是读了这些文档，也没有能力自己去修改这个东西。就像我们比如去买车，买完车的时候人家告诉我，这个发动机最高可以到什么样。或者说我去买这个电脑，人说这个电脑可以超频，可以去加液冷，可以进行改机，爆改都可以。但是我们谁真的买回电脑来去改吗？其实很少有人改这东西。但是总有一些人说，我们就去给你爆改电脑，给你个电脑CPU超频，给你去做这样的事情。做完了以后，我还给你公开出来，这个东西到底是怎么改的。</p>



<p>在最后呢，跟大家分享一个小故事吧。好会计和律师分几个阶段，可以去思考一下现在Deepseek在里边能够站到哪一位置。为什么讲会计和律师呢？都是在规则之下去工作的。他们在规则之下工作，但是呢又会不断的去接触很多灰色的东西。第一类就是最差的是什么呢？自己也搞不明白各种规则是怎么回事，还在这儿不懂装懂。其实大量的会计跟律师都是在这个层次上，就是你所有看那个说话特别强硬的，这种会计和律师，他一般都是掩盖他们自己的无知的。第二类呢就是自己也搞不太明白，但是呢还是愿意承认的，说这个事我可能稍微差一点，那个事可能也差一点，我们可以去问一下谁，或者怎么去讨论一下。我们见过的比较好一点的律师和会计呢，都是这样的，他不会把任何话给你说满。然后第三个是什么呢？就是相对来说要明白一点了，但是呢只会刻板办事，规定就是这样的，我不能给你改，那那个地方就是这样规定的，我不能给你动。再往后呢就是很明白了，而且可以利用各种规则的边缘，解决问题了。这个就是我们认为比较高端的会计师和律师了。当然最高端的是什么样呢？就是我不但可以利用这些规则把问题解决掉，还可以公开标准，修改和优化规则。这个是最高一级的。现在DeepSeek就已经站到最高一级了。这只是DeepSeek 5天开放周的第一天内容，让我们进一步期待这一周后面的四天到底都开源出。</p>



<p>一些什么东西出来。如果有一些比较有趣的，我自己还能讲得明白的，我会继续跟大家分享。好，这一期就跟大家讲到这里。感谢大家收听，请帮忙点赞、点小铃铛，参加Discord讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>DeepSeek是否融资迷雾重重——国家资本、阿里巴巴、社保基金都参与了吗？</title>
		<link>https://lukefan.com/2025/02/24/deepseek%e6%98%af%e5%90%a6%e8%9e%8d%e8%b5%84%e8%bf%b7%e9%9b%be%e9%87%8d%e9%87%8d-%e5%9b%bd%e5%ae%b6%e8%b5%84%e6%9c%ac%e3%80%81%e9%98%bf%e9%87%8c%e5%b7%b4%e5%b7%b4%e3%80%81%e7%a4%be/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 24 Feb 2025 13:02:41 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[AI企业融资]]></category>
		<category><![CDATA[AI估值模型]]></category>
		<category><![CDATA[AI商业模式]]></category>
		<category><![CDATA[AI大模型]]></category>
		<category><![CDATA[AI市场分析]]></category>
		<category><![CDATA[AI市场竞争]]></category>
		<category><![CDATA[AI应用场景]]></category>
		<category><![CDATA[AI应用端竞争]]></category>
		<category><![CDATA[AI开源模式]]></category>
		<category><![CDATA[AI投资传闻]]></category>
		<category><![CDATA[AI投资策略]]></category>
		<category><![CDATA[AI投资风险]]></category>
		<category><![CDATA[AI生态系统]]></category>
		<category><![CDATA[AI盈利与研发]]></category>
		<category><![CDATA[AI盈利模式]]></category>
		<category><![CDATA[AI盈利计划]]></category>
		<category><![CDATA[AI研发压力]]></category>
		<category><![CDATA[AI研究机构]]></category>
		<category><![CDATA[AI行业巨头]]></category>
		<category><![CDATA[AI行业转型]]></category>
		<category><![CDATA[AI资本运作]]></category>
		<category><![CDATA[AI转型策略]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek与OpenAI]]></category>
		<category><![CDATA[DeepSeek免费模式]]></category>
		<category><![CDATA[DeepSeek全球封禁]]></category>
		<category><![CDATA[DeepSeek商业化]]></category>
		<category><![CDATA[DeepSeek模型]]></category>
		<category><![CDATA[DeepSeek现状]]></category>
		<category><![CDATA[DeepSeek盈利转型]]></category>
		<category><![CDATA[DeepSeek研发方向]]></category>
		<category><![CDATA[OpenAI转型]]></category>
		<category><![CDATA[The Information报道]]></category>
		<category><![CDATA[云服务商认证]]></category>
		<category><![CDATA[人工智能融资]]></category>
		<category><![CDATA[估值谈判]]></category>
		<category><![CDATA[商业型AI公司]]></category>
		<category><![CDATA[国内AI发展]]></category>
		<category><![CDATA[国内AI竞争]]></category>
		<category><![CDATA[国内AI行业动态]]></category>
		<category><![CDATA[国内大模型]]></category>
		<category><![CDATA[国家主权财富基金]]></category>
		<category><![CDATA[国运级AI企业]]></category>
		<category><![CDATA[大模型开放策略]]></category>
		<category><![CDATA[技术研发成本]]></category>
		<category><![CDATA[服务认证收费]]></category>
		<category><![CDATA[深度求索API]]></category>
		<category><![CDATA[深度求索发展方向]]></category>
		<category><![CDATA[深度求索战略]]></category>
		<category><![CDATA[深度求索融资]]></category>
		<category><![CDATA[盈利压力]]></category>
		<category><![CDATA[盈利型AI公司]]></category>
		<category><![CDATA[研究型机构盈利]]></category>
		<category><![CDATA[社保基金投资]]></category>
		<category><![CDATA[科技企业独立性]]></category>
		<category><![CDATA[科技企业转型]]></category>
		<category><![CDATA[科技创新融资]]></category>
		<category><![CDATA[科技研发方向]]></category>
		<category><![CDATA[科研机构盈利模式]]></category>
		<category><![CDATA[资本施压]]></category>
		<category><![CDATA[阿里巴巴投资]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1935</guid>

					<description><![CDATA[**啊啊啊啊啊啊啊！深度求索融资大戏，究竟谁在搅局？**

最近深度求索的融资消息🔥🔥🔥，简直让人吃瓜吃到停不下来！据The Information独家报道，2月19号就传出了深度求索正在融资的消息！阿里巴巴、中投公司、国家主权财富基金、国家社会保障基金全都在谈判桌上！🤯

不过，消息泄露的背后，到底是谁在“大嘴巴”？通常这种级别的谈判，保密是第一原则，但这次居然被爆了！业内人士猜测，可能是有人想借媒体施压，锁定估值和份额！毕竟，深度求索现在可是“国运级”公司，谁不想分一杯羹？💼

深度求索官方虽然辟谣，但并没有否认谈判的存在。看来，这场融资大戏还没结束，未来会怎么发展？继续观望吧！🤔

#深度求索 #融资大戏 #阿里巴巴 #国运级公司 #吃瓜群众

DeepSeek是否融资迷雾重重——国家资本、阿里巴巴、社保基金都参与了吗？

深度求索（DeepSeek）近期因融资传闻备受关注，消息来源指出包括阿里巴巴、国家主权财富基金及社保基金在内的多方或参与谈判。这笔融资并非简单难题，涉及估值、利益分配，以及内部在研究方向和盈利压力间的权衡。当前，DeepSeek面临从研究型机构转型为盈利实体的考验，这将直接影响其技术研发及商业模式。此外，如何在市场竞争、资本压力和国际封禁等挑战中保持领先，成为DeepSeek必须面对的关键问题。文章还探讨了可能的解决路径，包括通过凉拌等待市场回落，或采用体外基金模式，引入资本但保持独立性。作为AI行业的国运级企业，DeepSeek的未来走向不仅是投资人关注的焦点，更关乎行业大势。这些信息，将为你解读DeepSeek是否正在融资、为何融资、以及如何在未来平衡科技研发与商业化的挑战。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="DeepSeek是否融资迷雾重重——国家资本、阿里巴巴、社保基金都参与了吗？" width="900" height="506" src="https://www.youtube.com/embed/ibUJkohn5MI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲DeepSeek的母公司——深度求索，是不是正在融资？消息是什么时候出来的？是2月19号传出来的。而且这个消息呢，并不是某人突然发了一条推特，或者发了一个其他的社交媒体，而是有一份报道。这个是The Information这样的一个媒体，做了独家的报道。据说有人参加谈判了，那么是参加这种融资谈判的人出来报的料。</p>



<p>据说参加谈判的有哪些家？第一个是阿里巴巴，然后呢是一些国有资金，包括中投公司、国家主权财富基金、国家社会保障基金，也就是社保基金。在The Information发了邮件去质询DeepSeek，阿里巴巴、中投公司没有回复质询，两位直接了解会谈的人回复了信息。</p>



<p>看到这里，咱们先看看这个到底是在说什么。一共是几家来谈判？DeepSeek自己可能要去参加谈判的，阿里巴巴要去参加谈判的，中投、国家主权财富基金、国家社会保障基金，这些都要去参加谈判呢。现在没有评论的是DeepSeek、阿里巴巴和中投，剩下有两位直接了解会谈信息的人士回复信息。这两个人应该是国家主权财富基金和国家社会保障基金的。那你说是一边一个，还是说这两个人都是属于其中某一个基金的呢？这个就没有办法去判断了。</p>



<span id="more-1935"></span>



<p>这种消息人士是怎么来的？第一个，他肯定是不方便透露具体的身份，因为大家要知道做这种投资的谈判，第一件事要注意什么叫保密。在谈判的过程中是绝对不能够去泄露的。The Information这样的媒体他也不可能说，我道听途说，就随便说这个事也不太会。所以这个人肯定是参加了谈判，而且这个谈判与会议应该是存在的，不是说我们拍脑袋想了一下，或者说跟谁提了一下，确确实实应该有一次正式的会谈，参加谈判的人出来去爆料了。</p>



<p>为什么会有泄露的信息出来，以及为什么会被辟谣，我们再去讲。通常情况下，参加类似这样的谈判，都还是要有一点点职业道德，要去保密的。你说这里头会不会有大嘴巴？一般不会。</p>



<p>因为像DeepSeek这样的状态已经达到了国运级别，在这个时候不会有人随随便便大嘴巴的。通常是为了什么？就是为了促成大势。在大势所趋的情况下，在里边去实现自己的一些目的。我自己其实遇到过类似这样的情况。有一个公司叫MusiCally，我投资了他的天使轮。后来他再去投某一个轮次的时候，大家在里边激烈地进行谈判。这个谈判的时候其实是谈几件事：第一个是估值，这公司到底值多少钱了；第二个叫谈份额，谁有钱或者有能力，在什么样的估值下，拿到一个什么样的份额。</p>



<p>看着他突然就开始见报，有一些媒体就开始报道这个事了，就开始查出这事谁干的。一堆人在那去谈判，你不可能说每个人都去爆料，肯定有一个人去爆料，或者说有这么几个人去爆料。大家就开始查，那查怎么查？要查动机。什么时候会有这样的动机？就是不希望估值继续上升，希望以现在的估值和现在的比例，能够进入到这一轮的投资里边去。如果这个谈判没有办法可以控制估值继续上升，谁的份额第一个有可能会被干掉。最后就问他说是不是你干的，最后这个人就承认说是他去爆料的。他爆料的目的，就是希望锁定当前的股值，锁定当前的份额，因为再往前涨这个股值他就投不起了。所以他就说我要先去爆这个料，但是最后我想不起来了原因，有很长时间了，好像这个估值还是会继续上升，这个人的份额就不见了。一般干这种事情的人，都不会有什么好的结果。</p>



<p>这一次深度求索再去融资的这个事情被泄露出来，大概率的原因就是深度求索自己其实还是在犹豫，或者说中间有很多的条款其实是谈不下来的。他也在想说不拿钱怎么办，拿了钱怎么办，如果拿了钱以后，我应该让渡哪些权益出去，估计还是在与讨论的一个过程。但是其他有一些公司，比如说像刚才我们讲的国家社保基金，或者是国家主权财富基金，这样的这种国字头基金，他们就有可能着急了，说我要把这事办下来，我一定要投进去。而且从我的经验来看，一般干类似这种事情的人，应该是国家社保基金的人。</p>



<p>可能性比较大。为什么？因为他们其实原来是不参加这种投资的。作为一个国家社保基金这样的机构来说，他就不应该去投一级市场，或者他投一级市场的这帮人可能就没有那么成熟。但是他又非常迫切地把这事按照他们所期望的方式把它办下来，所以就会去泄密。深度求索出来去辟谣，这个事情消息不实。但是消息不实这个事，他并没有否认是不是在有会议，他只是说我们近期内马上要拿钱，这个消息不实。这次泄露的原因就应该是有人希望借媒体和舆论造势施压，让他们按照自己所期望的这个价格和这个条款或者说权限，把这个协议签下来。也就是如此了。</p>



<p>现在，深度求索其实面临了很多的困境。第一个很大的困境是什么？就是是不是要转型。因为深度求索原来是一个研究型的机构，向完整的这个盈利型实体转向，这个事到底是不是要去做。其实我们看到OpenAI就在干这个事情，他原来也是一个研究性机构，但是现在就在向完整的盈利型实体在转型。而且在这个转型的过程中，还被马斯克去告，整个的过程是很痛苦的，非常不顺畅。研究型机构其实成本并没有那么高，它成本是有限的，然而收入也有限，而且通常是无法覆盖它的成本。在这个过程中因为没有外部投资进来，也没有说我必须要有一个什么样的增长性。因为拿投资这个事情，你拿到钱肯定很开心，但是你一旦拿到钱以后，其实是套上枷锁了。这个投资的基金自己都是有业绩要求的，我投进去以后，多长时间你要给我涨多少倍。不是说你今天这公司值100万，投进去以后过了两年你公司值120万，那我还不如存银行呢。所以这个投资基金进去了以后，都是希望你一年之内涨5倍或者涨三倍，都是这样涨起来的。而这个对于他们的压力是非常非常大的。如果是一个研究型机构的话，他就大家做自己喜欢的事情就完了，不需要背负这种压力，也不需要追求商业上的成功。我到底有多少用户了，到底有多少收入了，他不需要追求这个事情，继续研究底层技术就好了，其他东西开心就做。</p>



<p>不开心放在那里，还是让别人去做就完事了。但如果是完整的盈利型实体，OpenAI就要完成这个转变了。那就要向全方位去竞争。我要去做C端的应用，我要去做这个网站，我要去拉更多的用户进来，我要去收很多的订约费，好好地卖TOKEN。这就是要去干的事情，应对由用户量增长所带来的巨额成本。这个是马上要去应对的。</p>



<p>DeepSeek现在你问他任何问题，他不理你。我今天尝试问DeepSeek一个问题，发现第一个问题都没问出来。原来还每次能够问两个问题，到第三个问题才挂掉。今天就第一个问题直接挂掉了，肯定是还在有人向他施加压力。还需要干嘛？在C端跟B端，包括底层技术方面全方位启动，要见招拆招。因为你一旦是说站在排头兵的位置上，像国外的话OpenAI就是行业老大，那么国内现在无可争议的，DeepSeek就是行业老大。一旦行业老大说，我现在要开始盈利了，那你就要在所有的方面不能让人失望。那我们经常骂OpenAI你又在挤牙膏，你这个又做得不好，那个做得不好，为什么？他是老大。DeepSeek如果是向那个方向走，他也是要面临同样的压力。C端、B端、底层技术，哪一块事情都要做到最好。那这个其实也很讨厌。</p>



<p>虽然现在DeepSeek的流量大涨，但是在DeepSeek这样的免费模式下，这种流量上升只会带来成本，是带不来收益的。后面还有腾讯、字节、百度这样的流量巨头盯着他，所以他是非常非常麻烦的。而且在B端就是这种应用端，或者说是这种企业端，那太多非商业因素、非技术因素会影响交易了。你不能说因为我是DeepSeek，你要爱国你就来用我的东西。这个不是活成了我们讨厌的样子吗？而且B端的很多生意竞争是更残酷一些的，而且更灰色一些。</p>



<p>一旦DeepSeek准备向完全的商业实体或者盈利实体去转型的话，短期内其实带不来什么收益，但是会应对巨大的成本压力。一旦转型成盈利实体，研究方向一定会发生变形。</p>



<p>这个其实也是一个很麻烦的事情，因为我见过其实蛮多的AI初创公司。我们一般是有一条线去划给他，什么线？你现在是不是去给人做外包了？是不是去给人做项目做工程了？为什么要画这条线？你如果说这个AI公司，我还在很努力的研究技术，那么OK，你还是有机会的，眼睛里还是有光的。你一旦说这开始做外包了，就逐渐归于平凡了。因为你一个公司里边，大家就想说听谁的。当路线发生争议的时候，我是应该听盈利部门呢，还是应该让科学家们由着自己的兴趣爱好，自己随便乱走？盈利部门赚到了钱，到底应该拿多少出来支持科学研究呢？很多这样的公司里，他都会遇到这样问题。盈利部门说我明明挣了这么多钱，为什么第一我没有话语权，第二我没有地位，在里边都是听科学家的，第三，我挣的钱我为什么不能分？他会有这样的问题出来。科研项目到底多长时间不出成果，应该被砍掉呢？这个也是盈利公司需要去思考的问题。因为我们以前也遇到过这种公司，说我这边是盈利部门，那边是科学家。那科学家说我虽然做科学，没有这个盈利压力，那我的收入好像没有这个盈利部门的多。人家是有提成，做了项目以后可以分红，我就拿个死工资，或者说最多做点什么东西出来，给个奖金。但是真的不如这签了一个很大单，按比例分成这个事划算。很多科学家说我不想做科学了，我想上那个部门去做工程去。这个也是一个很麻烦的问题。我们现在希望DeepSeek可以一直产生很多的新技术出来，而不希望他们向一个盈利公司去转型。其实现在OpenAI转成盈利公司以后，如果没有DeepSeek在今年春节的时候，这样的一次刺激，可能现在还在挤牙膏。对于像的DeepSeek这样的公司来说，他有没有什么商业上的方式，可以解决刚才我们说的这种困境？我又不转成盈利公司，我还是做科研机构，或者说我只向那边稍微迈一小步，能不能把这个问题解决掉？其实最好的解决办法就是凉拌。什么叫凉拌？这个事等一等，等一段时间以后。</p>



<p>可能这个问题就解决了。为什么要等一段时间？就是各大公司现在的C端产品，实际上都在跟上深度求索的工具，流量就会逐渐下降下来。现在百度，你直接用百度搜索，上面DeepSeek的这个深度搜索，你可以去用。但是呢，我试了一下，百度那个效果极差。百度从来都是这样的一个情况，而且问了两个以后，居然百度自己也告诉你说服务器太忙，我不理你了。然后你现在用腾讯，他那个叫IMA那个软件，就是腾讯客户端<a href="http://ima.qq.com/" target="_blank" rel="noreferrer noopener">IMA.QQ.Com</a>，你就可以去试一试。它呢也是完完全全可以用DeepSeek的R1满血模型去给你做这个联网搜索了。这个是不限量免费的，都可以去做。当这些C端的大公司都上来以后，那深度求索现在这个流量就不要了。当然他要放得下才行，你是说我流量来了我放不下，我也还想要他，那就是不能这么玩。现在呢，各大云服务商都逐步部署了DeepSeek，将API用户整个瓜分完毕。深度求索自己家的API流量就会自然下降。现在的云服务商部署的DeepSeek，深度求索其实是一分钱也拿不到的。当前深度求索就应该走这条路，继续发论文。现在他也说了，说下个礼拜应该是会拿出一大批的开源项目来。不是说我要去赚什么钱，要去把我现在的服务器拥堵问题解决掉，我就不解决，我就生在这等着。未来的话他就是继续发论文，宣布所有国内外部署DeepSeek大模型都与他们自己部署完全一样没有差别。但是现在我去测试了一下，就是用百度的，用腾讯的，包括用DeepSeek自己家的，这个网站的搜索结果还是有差别的。就是DeepSeek的那个搜索结果会更好，会好很多。我估计原因也很简单，第一个，你套用了搜索引擎是谁；第二个，你搜索源是谁；第三个，你在搜索完了以后去进行搜索结果总结归纳的时候，到底开了多大的上下文窗口。有些公司可能就是在搜索结果去进行总结归纳的时候，开的上下文成果太短，这样是比较节省这个TOKEN的，但是那个效果就会比较差。</p>



<p>DeepSeek的那个官网效果就特别好，这个还是有一定定的差别。这是一种凉拌的方式，那就是等过完这段时间以后，风浪过去以后，DeepSeek的流量也都没有了，那我就接着干原来自己这些事情。这个是一种玩法。</p>



<p>还有一种玩法是什么呢？就是咱们稍微挣一点钱，但是呢，又不牵扯太多精力。怎么办呢？云服务商进行官方授权。现在都是你们随便就部署了，一分钱也没给我。未来呢，比如说我们做一定的部署规范，部署了DeepSeek大模型的云服务商呢，进行认证收费。不是强制的，你说你自己部署了，你没给我交钱没关系，你自己部署去。但是你说我想要得到一个深度求索的官方认证的DeepSeek的这个证书，那你要给钱。这个其实是可以收一部分的费用回来的。而且遇到了一些优化的问题，或者遇到了一些其他的一些部署问题呢，你可以进行优先的处理。这个其实有点像这种引擎公司，比如像Unity，Unreal公司，他们会去卖类似这样的服务。比如说你花钱找我买服务，我来帮你去解决一些技术问题。甚至呢，他们可以把一些流量通过DeepSeek的官网进行分发和售卖。比如说我是某一个云计算厂商，装了DeepSeek的满血大模型了，我希望在DeepSeek的官网上来卖我的服务。这个其实都是可以去挣钱的，而且对于DeepSeek自己的精力牵扯并不是很大。</p>



<p>很多开源软件公司其实都是这么活着的。我们现在看到包括像Mongo DB，像很多的类似这种开源软件公司，它都是靠收服务费活着的。就是说你们谁要用我的这个开源软件，你去用去没关系，但是你要想让我给你解决问题，你要交服务费回来。或者说你希望打我的一个logo，或者打我一个标上来，你要敲服务费回来。这个其实是正常开源软件公司的这种盈利方式。</p>



<p>还有一种方式是什么呢？就是系统集成商。因为很多系统集成商现在在使用DeepSeek的模型去给人做系统。这些系统集成商的话……</p>



<p>也是可以进行官方认证的。想要做系统集成了，必须过来考认证。那你说你不考认证行不行？没问题，你也可以做去。但是人家最后去选择系统集成商的时候，会选择这些有认证的系统集成商来去为他服务，一定是如此的。定期的举行一定的培训座谈，让这些系统经销商始终可以掌握最新的方向，去在这个里边去挣钱。这个也是一种收入。或者呢，就是组建一个体外的联盟，我不要放在体内，将授权的云服务商、认证的系统集成商聚集在一起，像社区一样去管理他们，定期呢进去指导指导工作，指导指导方向。其实谷歌有一部分是这么运作的。大家不要觉得谷歌就是老老实实在这挣广告费。你比如谷歌是有Google Developer group，它就是这样去运行的一个方式。谷歌还有另外一个社区组织是什么？它更像偏向商业的，就是帮谷歌去推他的什么Google Workspace，Google suits。谷歌有很大的一块的运营就是在社区里边去运营的。这个呢，应该也值得DeepSeek去思考，说是不是要采用这种方式。</p>



<p>现在的整个的环境是什么？就在逼迫这个深度求索就范。这个什么意思呢？就是目前深度求索自己家的API基本上是不可充值状态。我昨天看还是不可终止状态，应该呢，还是有人在攻击他。具体到底是谁也不好说了，到底是美国人在攻击他，还是某一些希望深度求索低头的公司在攻击他，这个事咱就没法去细究了。深度求索官方的APP呢，目前正在被全球封禁。因为你要想在全球去运营，你就要到全球去建这个机房。就算你不建机房，你也要到全球的这些亚马逊云上头去部署你的这个云主机，然后把他们各个国家的用户数据都放在这些云主机上去。甚至呢你可能还要到各个国家的云主机上面去部署你的DeepSeek满血模型，让他们的数据都在本国内就得到处理，然后进行返回。如果深度求索自己不想花这个钱，他就肯定会逐渐的被全球封锁掉，就是他的APP是没有办法做的。</p>



<p>然后，国内的话，也是基本上处于一个不可用的状态。因为他就是1万块显卡，但到底是1万块还是几万块，咱不管他了吧，肯定是不够他去用的。现在呢，深度求索本来是说拿着幻方量化的钱，自己做一些自己喜欢的事情，我也没有资金压力。那现在他就不行了，为什么？幻方量化的业绩也在急速的下滑，快速的缩水。幻方量化一直在被打压，从去年就在大量的被打压。为什么呢？大家说量化嘛，A股起不来怪谁呢？怪量化。你们这个靠机器，靠算法来去炒股票，让普通的民众没有挣到钱，你们有问题。然后每一次我们想把他拉起来的时候，就是你们这些量化在里边去做手脚，让这个股市下跌，你在里头挣这个钱，这事是不对的。所以去年其实打了很多了。而且这么多量化基金里头，原来幻方量的话是曾经在中国当过老大的，但是不断的打击，就跟这个什么似的，西游记里的似的，有老板的妖怪，最后呢都是让老板带回去了。孙悟空真正的打死的妖怪，都是没有后台的。西游记里边有这么一句话，就是妖怪上来了以后，如果说你是谁，这个人就死了；如果这个妖怪上来说弼马温，这个妖怪就活了，因为他认识孙悟空，也是这个天庭上有门路的人，他就能活下来。而幻方量化呢，在面对量化的打击里头，应该算是后台没有那么硬的，所以肯定是一锤一锤接一锤，都砸在他身上了。现在最大的一些量化基金，都是国资量化了，幻方量化已经没有什么机会了。2021年幻方炼化最高峰的时候，管理了1,000亿人民币的资金，到2024年的话，据说手里还有300亿的资金规模，到2025年的话好像又少了100亿，只有200亿的资金规模了，大概就是这样的一个状态。所以现在呢就是逼你就范，就是你深度求索必须要拿钱，第一个掐断幻方的现金流源头，限制自己造血的能力。大模型公司本身还是要烧钱的，就算他是一个研究机构，你也还是要烧钱的，对不对？是不是可以让喜儿去地主家里，做一段时间丫鬟了呢？这就是白毛女的故事嘛。所以就是我把上头掐了。</p>



<p>不断的给你施加压力，让你的这个服务跑不起来，让你的API也没法去为人服务。然后我们再来跟你谈说，你是不是就这样从了吧。那么融资方面呢，有可能的结果会是什么？第一个就是继续坚持下去，不融资，走自己的路。现在呢，深度求索出来辟谣，说这个消息不实。有可能他就可以一直坚持下去，就是你虽然压制他了，但是深度求索手里应该还是有一定的现金的。并不是说我就真的要被你弄死了，我最多就是现在的流量我不要了，现在进来的这些用户我就不要了。</p>



<p>还有一种方式呢，就是直接拿钱。如果直接拿钱的话，深度求索可能就失去自己的方向。未来的话我们也就不用再指望深度求索再做出什么奇怪的东西出来了，这也是一种可能性。那你说除了这两种可能性，拿钱或者不拿钱之外，有没有第三种可能性呢？有没有一个大家都可以接受，皆大欢喜的方式，就是我又拿着钱了，公司也发展了，然后呢又不影响我继续往前奔跑的态势？也有，怎么做？就是建立体外的信心，跟深度求索去协同这个事呢，就是等于你拿到了钱了，但是别人又没法管你。</p>



<p>那你说有人干成这个事吗？有，这个里头比较有名的呢有两个。第一个呢是雷军的顺维资本。雷军创业了以后说，我还需要一个基金，但是呢，我又不能牺牲更多的股份，牺牲更多的控制权了。那怎么办呢？他说我们再去募资，然后找了一个新加坡人，跟他一起募资，募了一个顺维资本。顺维资本有一部分钱就是要投给小米的，另外一部分钱呢，是跟小米去协同。小米投什么他投什么，包括我们现在看到大量的米链企业，或者是叫米家企业，都是顺维资本投的。就是小米也投一波，然后顺维投一波，有的呢就是上市了，大家一起去挣这个钱。这是一种运作方式。</p>



<p>还有一个运作的是谁呢？就是便利蜂。有很多人在国内是见过便利蜂超市的吧？便利蜂的创始人呢叫庄晨超，他呢是斑马资本的创始合伙人之一。他呢就是说任何人想去投资便利蜂，或者想去开便利蜂的这个店，你是不可以直接投资便利蜂的。</p>



<p>你要去入股斑马资本。斑马资本来替你们一起去投去，这也是一种方式，就是在体外建立基金。然后呢，跟这个母基金、跟这个创始人一起联动，这个是一种玩法，就是保持独立的方向，也可以同时获得周边的各种收益。最终呢，在反哺科技研发。从我们以前做过投资的这种方式上来说，咱们也是在这一边吃着瓜，一边给人支着招吧，大概也就如此了。</p>



<p>至于说DeepSeek，过一段时间会不会传出成功融资的机会了，还是按照一个什么样的方向融资，我觉得我们只管看就好了。作为这种叫国运级的创新了，他向各个方向发展，这个可能性都是存在的。而且呢，作为一个量化基金的创始人，他们对于钱的理解和认知，跟普通公司的创始人是不一样的。他们对这种东西的理解是更高一个层次的。像我们原来讲，你是一个没有创过业的人，就是打工的，你对这个资本的认知在一个层次上。你创过业了，融过天使轮、A轮了，你再上一个层次。你作为投资人去投过案子了，或者给人处理过这种并购、什么这种关停并转，再往前走一点点。然后做量化基金，就是做二级市场这些人，是完全在另外一个层次上的。所以我相信他可能还能再想出一些其他的处理方式，去处理当前深度求索所面临的难题。</p>



<p>这就是我们讲的第一个故事，就是深度求索到底是不是在融资，或者说他未来的融资可能向什么样的方向去发展吧。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>鲶鱼效应搅翻AI江湖：DeepSeek 671B开源来袭，GPT-5和百度文心一言迎巨大挑战！</title>
		<link>https://lukefan.com/2025/02/18/%e9%b2%b6%e9%b1%bc%e6%95%88%e5%ba%94%e6%90%85%e7%bf%bbai%e6%b1%9f%e6%b9%96%ef%bc%9adeepseek-671b%e5%bc%80%e6%ba%90%e6%9d%a5%e8%a2%ad%ef%bc%8cgpt-5%e5%92%8c%e7%99%be%e5%ba%a6%e6%96%87%e5%bf%83%e4%b8%80/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 18 Feb 2025 00:46:01 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[671B开源模型]]></category>
		<category><![CDATA[AI免费服务]]></category>
		<category><![CDATA[AI发展趋势]]></category>
		<category><![CDATA[AI商业模式创新]]></category>
		<category><![CDATA[AI垄断]]></category>
		<category><![CDATA[AI安全性]]></category>
		<category><![CDATA[AI对话模型]]></category>
		<category><![CDATA[AI幻觉问题]]></category>
		<category><![CDATA[AI广告收入]]></category>
		<category><![CDATA[AI开源]]></category>
		<category><![CDATA[AI推理模型]]></category>
		<category><![CDATA[AI未来发展]]></category>
		<category><![CDATA[AI模型对齐]]></category>
		<category><![CDATA[AI流量焦虑]]></category>
		<category><![CDATA[AI用户忠诚度]]></category>
		<category><![CDATA[AI盈利困局]]></category>
		<category><![CDATA[AI系统集成]]></category>
		<category><![CDATA[AI行业竞争]]></category>
		<category><![CDATA[AI语音功能]]></category>
		<category><![CDATA[AI黑箱子]]></category>
		<category><![CDATA[B端市场]]></category>
		<category><![CDATA[Claude 4发布时间]]></category>
		<category><![CDATA[Claude4]]></category>
		<category><![CDATA[C端市场]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek API]]></category>
		<category><![CDATA[DeepSeek R1一体机]]></category>
		<category><![CDATA[DeepSeek安全性]]></category>
		<category><![CDATA[DeepSeek对OpenAI影响]]></category>
		<category><![CDATA[Gemini 2.0]]></category>
		<category><![CDATA[Google AI Studio]]></category>
		<category><![CDATA[GPT-4.5]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[GPT-5功能]]></category>
		<category><![CDATA[Llama4]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI盈利]]></category>
		<category><![CDATA[OpenAI订阅]]></category>
		<category><![CDATA[ToB市场]]></category>
		<category><![CDATA[ToB部署]]></category>
		<category><![CDATA[ToC市场]]></category>
		<category><![CDATA[ToC用户体验]]></category>
		<category><![CDATA[多模态生成]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型商业模式]]></category>
		<category><![CDATA[大模型统一接口]]></category>
		<category><![CDATA[大模型计算成本]]></category>
		<category><![CDATA[山姆·奥特曼]]></category>
		<category><![CDATA[开放源代码]]></category>
		<category><![CDATA[开源大模型]]></category>
		<category><![CDATA[推广成本]]></category>
		<category><![CDATA[推理成本]]></category>
		<category><![CDATA[推理模型O系]]></category>
		<category><![CDATA[文心一言4.0]]></category>
		<category><![CDATA[文心一言4.5]]></category>
		<category><![CDATA[文心一言Turbo]]></category>
		<category><![CDATA[文心一言免费]]></category>
		<category><![CDATA[李彦宏]]></category>
		<category><![CDATA[百度AI]]></category>
		<category><![CDATA[百度搜索广告]]></category>
		<category><![CDATA[百度文心一言]]></category>
		<category><![CDATA[谷歌AI策略]]></category>
		<category><![CDATA[谷歌Gemini]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1920</guid>

					<description><![CDATA[啊啊啊啊啊啊啊！家人们，今天咱们来聊聊最近大模型赛道的大新闻！DeepSeek彻底改变了游戏规则，GPT5也即将发布，百度还要免费开源文心一言！这一波操作简直让人眼花缭乱！🤯

DeepSeek，这个满血版671B的开源模型，彻底搅浑了大模型市场的水！OpenAI和谷歌都被它搞得焦头烂额。OpenAI的20美金订阅模式已经被证明是个大坑，谷歌也在努力往外爬，而DeepSeek却凭借其完全可控的开源模型，迅速占领了B端市场。中国的DeepSeek一体机卖得火爆，虽然价格高达三四百万，但大企业们依然愿意买单！💸

GPT5也即将发布，山姆·奥特曼终于要放大招了！从GPT4到GPT5，OpenAI的路线彻底改变，免费用户将能够使用全部功能，这无疑是对自身商业模式的巨大挑战。但是，GPT5的核心问题依然是如何盈利，毕竟C端用户忠诚度低，B端市场又面临开源模型的激烈竞争。🚀

百度也不甘示弱，宣布文心一言将免费开源！李彦宏这一波操作简直是180度大转弯，直接颠覆了之前的收费模式。但百度的核心问题依然是搜索引擎广告收入的流失，如何在大模型市场中找到新的盈利模式，依然是他们面临的巨大挑战。🔍

未来的大模型市场将如何发展？DeepSeek、GPT5、百度文心一言，谁将主宰未来？家人们，你们怎么看？快来评论区讨论一下吧！👇

#DeepSeek #GPT5 #百度文心一言 #大模型 #AI #科技前沿

鲶鱼效应搅翻AI江湖：DeepSeek 671B开源来袭，GPT-5和百度文心一言迎巨大挑战！

DeepSeek带来671B满血版开源模型，引发AI行业重大震荡，直接冲击OpenAI、百度等巨头的ToB和ToC市场。OpenAI推出GPT-4.5和GPT-5，转向更聪明的推理模型统一接口，但同时面临高推理成本和用户流失的挑战；百度文心一言则宣布全面免费和开源，但遭遇搜索广告收入危机。DeepSeek的高性价比部署方案，以及开源趋势，引发对行业变革的深思。大模型市场进入空前竞争时代，盈利模式如何创新，仍是未解难题。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="鲶鱼效应搅翻AI江湖：DeepSeek 671B开源来袭，GPT-5和百度文心一言迎巨大挑战！" width="900" height="506" src="https://www.youtube.com/embed/kAeOCWFBJr4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲DeepSeek。这条鲶鱼搅浑了水，GPT5要来了，百度也要免费开源了，到底是一个什么样的情况？大模型这个赛道未来会怎么去发展？</p>



<p>DeepSeek呢，算是彻底改变了游戏规则。OpenAI给整个行业挖的坑，到现在呢，还有一些公司没查出来呢。什么坑？就是客户端这个订阅20美金一个月这个坑。这个其实是一个非常失败的商业模式。谷歌到现在还在往外爬，因为谷歌他其实自己不太想爬出来。为什么？因为他一旦爬出来以后的话，谷歌搜索的广告收入就没了，只能在那里头装聋作哑了。Perplexity到现在也还在思考，到底是不是要爬出来。</p>



<p>大家有没有想过一个问题？开源模型，因为DeepSeek是满血版671B的开源模型，它对于OpenAI的伤害，到底是ToB的伤害大，还是ToC的伤害大？这是一个大家值得去思考的事情。虽然现在DeepSeek在很多的C端有非常大的影响力，就是很多的个人去下载这个东西去用去，但其实真正的开源模型影响最大的是B端。我这是一个自己的公司，我是一个政府项目，或者是一个什么样的商业相关的事情，我要去使用大模型的时候，一定是会优先去选择这种完全可控的开源模型，而不是说我去用人家的闭源的，买人家API。因为你一旦是有开源模型的话，你就可以选择完全私有部署，我自己买台服务器往里装就完了。</p>



<span id="more-1920"></span>



<p>现在中国卖的特别好的就是DeepSeek一体机。什么叫DeepSeek一体机？就是它一个机器里边给你塞满了，比如说8块或者16块升腾910，华为的这个算力卡，可以把DeepSeek 671B的这样的模型直接塞进去，就是一台机器搞定。但是这机器很贵，这一台机器大概是三四百万人民币。但很多的大企业说，我们愿意去花这个钱。中国的那些大企业，特别是央国企，他们花这种钱还是蛮开心的。花完了以后，华为就可以发挥他们比较擅长的事情。</p>



<p>做这种ToB销售、做大客户销售，剩下的这个我们就不能细说了。所以一旦是有这种完全开源的大模型，而且是跟你这个OpenAI差不多功能的这种大模型的话，对于OpenAI也好，对于谷歌也好，最大的伤害是B端的。C端的其实你说有伤害吗？有，但是C端的人呢，主要是凑个热闹，我们上去看一下就可以了，发现“哎，慢了吧唧不太好使呢”，就跑掉了，也就这样。但是B端真的是差异很大，现在大家都已经开始动起来了。谷歌的Gemini 2.0 Pro已经发出来了，而且谷歌Gemini 2.0，就是Flash、Flash light什么一大堆的版本出来，那是真便宜，而且是比DeepSeek还便宜的一个价格。你不是跟我卷价格吗？我卷的比你还低，现在是谷歌的应对方式。</p>



<p>而山姆·奥特曼的话，也终于要发布他的GPT-5了。这个是路线的一个彻底改变，从去年年底12天连续的挤牙膏，到现在突然说“哎，GPT-4.5要出来了，马上GPT-5也要出来了”，这个转变是非常非常巨大的。而且我相信到目前为止，这个弯应该没有转完，这只是转了其中的一半，剩下的我们还要再等它继续去发布，还有一些新的消息，可能未来一段时间会出来。为什么说这个弯还没有转完呢？因为你还得开源一部分，你光说我4.5和5这事不行。到目前为止，OpenAI到底怎么开源这件事，山姆·奥特曼都没说，这个肯定是有问题的。</p>



<p>而且山姆·奥特曼也好，OpenAI也好，现在已经开始有流量焦虑了，就是他们的流量到底了，靠自然增长涨不上去了。所以他们1,400万美金，跑到超级碗去打广告去了。他们等于进入到下一个阶段了，原来就是我自然增长，再涨上去就完了，现在涨不动了。而且呢，除了出4.5和5之外，还要求什么呢？就是他还说了，我们要开放全部的功能给免费用户使用，不用再去说一定要交钱了。这个是非常大的变化，就是你甭管是GPT-4.5还是GPT-5，什么搜索、什么生成图片，这个东西免费用户都可以用起来。</p>



<p>这个是真的要革自己的命的路子了。GPT-4O以后，其实再往后发展，这个事本身是挺难的。就是普通的这种对话模型，在GPT-4O出来以后，我们就做过这个结论。其实GPT-4到4O之间，主要增加的东西是什么？是语音的部分，是多模态的部分，高级语音功能。为什么涨不上去呢？原因就是你再往上涨，大家其实没法欣赏了。</p>



<p>马上要跟大家见面的GPT-4.5，就是说未来几周就会见面。那么4.5代表的是什么意思？有提升，但是呢，提升又不够大，所以它的名字叫4.5。越往后发展，这个提升就越难被普通大众所感知。你说我今天去跟一个出租车司机聊个天，哎，聊得还挺开心。待会你在这给我做一个博士，我跟他聊天发现聊不到一块去。人家说什么我不懂，我说什么，人家都是像看傻子一样看着我。那这个事肯定是没法整。因为你GPT这种东西从4到4.5或者到5，你变得更聪明了以后，是不是就是我说点什么，对面都像看傻子一样看着我呢？这个就会很痛苦。</p>



<p>而且加入搜索以后的话，其实对于大模型本身，就没有那么高的要求。他只要把我们的内容通过互联网搜索以后，再去进行一个总结归纳的话，他对于模型本身的能力要求，其实已经下降了。还有一个问题是什么？就是越聪明的模型，对于安全和对齐就越费劲。我还记得在GPT-3.5出来的时候，他们就说说，我们这个模型其实训出来一年多了。那这一年多干嘛呢？就是不停的在去做对齐，做安全性的这种防护，不能让人去攻破它呀。而且发出来以后还不停的有人上来说，我奶奶告诉我怎么样，或者是我做了个梦造原子弹了什么，还不停的去绕他。绕了这么多年了以后肯定是攒的，各种各样的防越狱的手段越来越多。</p>



<p>那么现在GPT-4.5可能早就训练出来，但是他就为什么没有办法把它拿出来？就是没法去搞定这个安全措施。原来可能还要再去蘑菇很长时间，内部才能达成一致，说我们把它放出来。现在DeepSeek来了以后说算了，不用费劲了，咱们拿出去用吧。</p>



<p>其实，在Llama出来的时候，OpenAI这边就应该想明白了。就是在这个时候再把它做这个，那么安全其实意义不大。因为有开源的，你这个做的再安全都没有什么意义。</p>



<p>DeepSeek在安全跟对齐这方面呢，有点像拼多多的商品。原来很多人说DeepSeek是AI界的拼多多，这个是有道理的。拼多多的商品有什么特点？能用，这个东西不是说不能用，能用便宜，但是安全性跟稳定性呢，就没有那么讲究。你去拿DeepSeek，特别是DeepSeek的API，基本上是百无禁忌的。一个模型放在那里，那你说这个大模型这样百无禁忌，他有问题，你万一说点不该说的怎么办？</p>



<p>但是你想想，我们今天相当于雇了个人在家里干活。我们希望这个人的道德标准是由我们掌握的，而不是由DeepSeek或者OpenAI，由对方来掌握的。我觉得宁肯找一个百无禁忌的人回来，我们重新给他立规矩，也不要说哎，已经训练好了一个道德规范，在进我们家来。这个还是有区别的。而且现在大模型安全性这一块事，大家都还在摸索，谁也没有搞明白，到底怎么能够让大模型彻底安全下来。现在就是一抓就死，一放就乱的这么一个状态。DeepSeek就属于彻底乱带了，像Claude呀OpenAI，都属于抓的相对来说比较死。</p>



<p>但是我觉得对于很多ToB，就是自己可以去做这个开发的，这些用户来说，我自己把握，你不要指手画脚。GPT4.5这个呢，应该就是OpenAI的最后一个对话模型了，再往后不做了。再往后的所有方向都是向O系列，也就是推理模型的方向前进了。那么GPT5是什么？GPT5其实是不用太期待的一个东西，它呢应该会在几周或者几个月之后发布。这个名字呢应该是逼出来的，就如果没有人逼它，我估计它也就不叫GPT5了。GPT4.5发完就完事了，接着做O3、O4、O5，就这么发下去了。那现在不行了，要改方向，新的方向就是GPT5。那这个名字到底是什么意思呢？其实GP5不是一个模型。</p>



<p>它是一个AI agent的聚合体。他后面有大量的O系列模型，如O1、O3等，这些模型在后面盯着。然后，4.5这样的对话模型也在后面盯着。他呢，是每一次接到一个问题以后，根据用户的意图来判断，说你到底想干嘛，然后再调用不同的模型来解决用户的需求。</p>



<p>很多人使用OpenAI以后说很讨厌，说你这个上面有一个叫模型选择器的东西。你上来以后先要选，我到底是用4回答问题、4o回答问题、4O mini，还是用O1、O3，用哪个去回答问题。选来选去的很麻烦。现在甭选了，我们就统一入口。你就来问，问完了以后我替你选，替你去回答就完事了。你就不用管后边我是怎么调度的了。这个呢，算是又一次指明了方向。</p>



<p>OpenAI说这个话之前，或者山姆·奥特曼说这个话之前，谷歌呢，还是发了一大堆的模型出来。他那个模型叫Gemini 2.0 Flash、Gemini 2.0 Flash light、Gemini 2.0 Pro、Gemini 2.0 Flash thinking，等于是这个系列的模型出了一堆。OpenAI说别费劲，咱们统一接口。而且呢，所有功能都统一放在一起。像去年其实我讲过好多次，就OpenAI这个模型不支持上传图片，那个模型不支持搜索，再了一个模型不支持什么canvas，就是那种画板。每一个都是很别扭。现在说，哎都有，GPT5所有的这些功能，什么搜索、高级语音、多模态生成、生成视频、生成音频、图片识别、文件上传、canvas，统统都放在一起。就是你就不用管它后边儿到底是谁了，我给你搁一块儿完事儿了。这个还是非常棒的一个事情。</p>



<p>所有免费用户都可以使用全部的功能。那你说还有没有人付费呢？付费用户是可以根据付费的情况，获得更聪明的回答，或者是更多步骤的回复。但这个效果怎么样呢？我觉得还有待观察。我现在感觉，OpenAI又在给大家挖坑儿了。就前面它这个一个月20美金，我就觉得是个大坑儿。</p>



<p>免费用户获得这个比较笨的回答，付费用户获得比较聪明的回答。这件事我觉得被人歧视了，总觉得浑身不舒服。当然了，我现在已经准备要退定它了，一个月20美金，可能等到GPT5出来的时候我就退定了。以后呢，就是有钱人获得更聪明的AI服务，穷人的话面对的就是敷衍了事的扑克脸了。未来只有O系的推理模型还会继续发展，这种普通对话模型到4.5到头了，到此结束了。</p>



<p>为什么是走这条路呢？你说我们真的需要那么多工程师吗？真的需要去解决什么全人类的这个疾病问题吗？其实不是。这种推理模型有一个很大的优势是什么？它可以一部分地解决幻觉的问题。有的时候说真话，有的时候说假话，或者是有的时候一本正经胡说八道。这个事大家是受不了的。大家要注意AI犯错误的方式跟人犯错误的方式是完全不一样的。</p>



<p>人类犯错误的方式是什么？就是我们会在不熟悉的领域犯错误，还有什么？在疲惫的状态下容易犯错误。而我状态好的时候可能说的比较顺溜。人呢，在不熟悉的领域或者是疲惫状态不好的时候，情绪能表达出来，他会犹犹豫豫的，说的不是那么肯定。所以大家也比较容易判断你这个答案是不是靠谱。有很多人就他自己也不懂，这个东西到底对不对，但是只看对方的这个语气语调，就能猜出来：“哦，这个事原来你也不太拿准。”</p>



<p>人呢，在被反复询问的时候其实会不耐烦，这都是人的特性。AI正好反过来，它呢是任何时候犯错误的概率都差不多，就是甭管这东西你熟还是不熟，AI其实没有什么状态的问题，他都会犯错，而且犯错误的概率是一样的。而且呢，人犯错误的时候会显得犹疑不定，AI呢不管是不是犯错误都一本正经，所以我们经常说他一本正经胡说八道嘛。</p>



<p>当然AI有一个好处是什么？他被反复询问的时候不会不耐烦。所以推理模型呢，他就可以解决这个问题。一个问题我问你3遍，问你5遍，再拿这些结果进行判断，看看是不是一个靠谱的结果。所以这个就是O系推理模型，大家很努力地再去往前推这个事情的原因。</p>



<p>因为我最近一段时间是 DeepSeek R1 用的比较多。O1 出来，O3 出来，其实我用的都比较少。但是 DeepSeek 出来了以后，我还是很努力的用了一下。我发现就是很多事情，不是一些数学问题、物理问题、工程问题，就是普通的这种生活中的问题，你扔给推理模型去干，效果也挺好的。唯一缺点就是慢，还有一个就是啰里八嗦的。中间上这个思维链这个事是比较讨厌的，其他的都还可以。</p>



<p>再往后呢，就是 API 可能会比较麻烦。现在山姆奥特曼就是说以后 API 也是统一接口，但这个就很麻烦了。为什么？就是你可能问了一个很简单的问题，不定他哪根筋搭错了，直接跳到推理模型那边去干活去了。那你可能这一个问题就直接几千个 TOKEN，上万个 TOKEN 就直接干掉了，而且出了一大堆啰里八嗦的东西，你也不知道他在说什么。这个事是比较讨厌的。所以我估计 API 可能还是分模型去处理的，这个应该是让我们自己去选择。你不能说你替我选完了就直接干了。</p>



<p>所以呢，GPT5 呢其实是一个黑箱子。每个用户提问之前，也不知道会为哪个模型去服务，也不知道会获得多大的算力，或者是推理预算。免费用户获得的服务可能会不太稳定。就是用的人少，没准多给你思考一下；用的人多就拉倒了。就跟我们去医院看病似的，如果一大堆人在外面排着队呢，那大夫肯定可不耐烦了。但是你说哎，我有钱，我去看这个特需门诊，那个大夫肯定脸上笑出花来，说您哪不舒服，慢慢跟你说一下。当然我每次去看病的时候，那个大夫看我一眼说，哎，该减肥了。这个也是让我比较不爽的一个事情了。</p>



<p>现在呢，对于 B 端市场，统一黑箱的这个方式其实并不是一个特别好的办法。为什么？因为弊端市场他肯定还是要先试用，测试完了以后，再去确定说我是不是要去下单。那你现在没有什么可以定制的地方，上来给你一黑箱子，结果你说我弊端市场要测试的时候，遇到一个脑子不太灵光的扑克脸，那这个成单的可能性就会下降很多。统一接口为什么费劲？就是原来……</p>



<p>为什么大家不是做这种统一的接口？原因呢，是这样：就是大模型跟传统软件是不一样的。传统软件是模块化的，大家可以拼来拼去的。大模型呢，是训练完了你就不能拆分拆迭代了。说我训练完一整块，说我把胸间哪一块拆出来改一改行不行？不行，训练完了就是一整块，它是不允许动的。每一个模型训练完了以后，都需要单独的调整，才能够接上各种外挂。这个是大模型跟传统软件之间的一个比较大的差异。传统软件就是模块化随意增减，大模型是一次成型不可分拆。</p>



<p>那么，你说到底是一个诸葛亮厉害，还是三个臭皮匠厉害呢？像我们以前一起合作或者带团队干活的时候，都会理解这件事，就是沟通确认这个成本是很高，效率是很低的。很多事情都是说，哎，干脆一人把他干完了，也比跟很多人商量着做要快很多。所以呢，如果你有一个特别特别强的基座模型，要肯定要比一大堆的模型凑一块干活要顺畅的多。大模型之间的配合呢，其实更像是一堆人商量着干活。就是为什么原来没有统一接口，大家都是一大堆的模型让你去选，这个也是有原因的。</p>



<p>GPT5的这种方式呢，为什么说我感觉它像一个坑呢？这是一种突c的全能型助手，就是你甭管是问他什么问题，他都来给你判断意图，然后进行回答。可以说呢，是像端到端的这种智能助手的方向迈进了一大步。未来呢，给这种端到端的黑盒子做定制开发，或者是和系统集成的话，应该是比较费劲的。为什么呢？就是各种OpenAI基础上搭建的这个系统的话，它的底层会没有那么稳定。就是你每一次把命令扔进去以后，你不知道它会用哪个模型给你回复。比如说你写了5,000字的提示词进去，OpenAI给你回答一个好的，或者叫回答一个阅，已阅，那这个事不就这个哭笑不得了吗？或者是你问他说，哎，明吃什么呀，他给你思考了半天，说哎呀明天是一个什么样的日子，啰里吧嗦给你写了2万字出来，这个就可能会造成一些坑。</p>



<p>那你说统一接口这件事，对OpenAI自己有什么好处呢？有一个巨大的好处。</p>



<p>就是你要再想分析、开解、蒸馏它的模型，就费劲了。原来我们可以逮着O1去蒸馏，蒸馏出来的东西去训练，比如说DeepSeek R1。现在变成了一个统一接口的黑箱子，你说我现在想对你去进行蒸馏，大家想一想这多费劲吧。你不一定哪句话回来一个“已阅”，不一定哪句话回来了，给你回答一大堆乱七八糟事情。这个有点像咱们现在看3D电影，这个3D电影的效果未必好，但是呢，最主要的这个功能是防止盗录。就是我现在拿个手机或者拿个摄像机，在这个电影院里把这个3D电影拍下来，是没用的，出去没法看。所以我觉得统一接口这个事情，未来也许是大方向，但现在的话，应该主要是OpenAI一个防盗措施。</p>



<p>现在呢，商业上统一接口这件事呢，我觉得可能也是个坑。为什么？得屌丝者得天下，明显带有歧视性的这种政策，会把屌丝用户都推给竞争对手的。就像我们现在为什么在国内看病，大家老觉得不爽。你去挂普通号，就是要一堆人在那排队乌泱乌泱的，进去了以后这个大夫极其没有耐心。你每次这样看完了以后，你看旁边那个特需门诊窗明几净，大夫特别耐心的这种诊疗制度的话，你肯定会觉得不爽。所以在这样的一个情况下，免费用户你再怎么使，你都会觉得不舒服的。这玩意叫“不患寡而患不居”呢，这个是应该是有坑。</p>



<p>而且现在OpenAI，虽然号称每年可以降低成本90%，就是说我推理成本会不断下降，原来是10块钱的事儿，过一年就变一块钱了。但是呢，这一次失去的收益，估计不一定少于90%。目前OpenAI的收入75%来自于订阅，就是一个月20美金也好，一个月200美金也好，就是这个钱是占他整个收入的75%的。2024年可能预计他是挣了40亿美金，然后这个钱可能都不用算训练新模型，就是他原来的这个旧模型的这个推理，压根这个40亿美金都未必覆盖的了。到新的一年，他可能大量的订阅就会流失掉，C端用户一定会大量流失。B端用户的话，如果不走开源的路，那么在B端的这个市场上。</p>



<p>面对DeepSeek这种全开源模型，我觉得OpenAI的竞争力是比较差的。而且，如何盈利的问题现在还是需要思考。目前的收入还是很难覆盖公司其实有三大成本（不算人员成本）：第一个是训练成本，第二个是推理成本，第三个是推广成本，也就是获取用户的成本。</p>



<p>训练成本，比如说我招了一大堆科学家回来，来做新模型，我要去收集数据。这个成本是一次性的，我有一个模型可以对外服务了，我就可以一直收钱了。推理成本的话，就是你要让一大堆的GPU在那等着给我们回答问题。推广成本的话，OpenAI在这个超级板上花了1,400万美金，那个就叫推广成本。</p>



<p>正常的一个公司运作下来，应该是训练成本最低，推理成本应该比训练成本高一些，推广成本有可能会比推理成本还要再高一些。但是现在这一块大家还在有争论，为什么？因为原来推广成本最高的一个六小虎，现在快玩不下去了。Kimi花了好多钱去推广，结果发现DeepSeek一出来，完全为他人做嫁衣了。</p>



<p>使用大模型聊天工具这件事上，用户基本上是没有忠诚度的。只要有一个比你好的基座大模型，大家就直接跑了。所以大家也在想说，我是不是不应该花钱去推广，还是应该把这个模型再往前推一步。但是这个事没有地吃后悔药去。后面的话，我估计OpenAI还会有比较大的调整，应该会开源一部分东西出来。你如果不开源的话，对于ToB市场是基本上没有办法的。</p>



<p>说完OpenAI以后，咱们再讲讲李彦宏同学。那真的给大家演绎了一下，什么叫唾面自干。文心一言不但要免费还要开源。李彦宏呢，就属于被OpenAI忽悠瘸了的那个，上来就开始收费，什么都不行。文心一言还比较烂的时候，就找人去收钱，而且呢，一个月是50多块钱，很贵的这个玩意在中国。当然，这坑肯定是他自己愿意跳的嘛。搜索引擎嘛都是这样，因为他后边还有搜索广告输入。你一旦是免费让人用搜索，免费让人用这个东西，那你这个搜索广告收入就没有了。</p>



<p>所以，李彦宏就跳到这坑里去了。如果模型还没有遥遥领先就开始收费的话，那用户肯定是很反感的吧。他现在到底有多少人订阅了文心一言4.0版本？反正我是从来没有用过，也从来没有定过。现在的话，直接就是180度大转弯，文心一言全部的模型都免费，而且直接开放深度搜索功能。而且呢，带有搜索功能的其实是叫文心一言4.0 Turbo的一个版本。带有搜索功能的所有大模型，一般都是有什么Turbo、light呀，或者是快速的Flash呀，有这样的这种标签在上的。就是它实际上是一个中量级的，我估计可能也就是30B或者是70B这样的一个模型，绝不可能是那种几百B的模型。这是文心1.4.0 Turbo的一个版本。他准备呢，在未来几个月陆续发布4.5版本。他到底是陆续发布，还是直接向OpenAI学习，整一个统一接口出来，现在还不确定。而且呢，讲到6月30号，4.5版本就要开源。但是呢，具体4.5版本有几个版本开源，哪些不开源，哪些到现在都没有说。</p>



<p>另外呢，在让人失望这件事上，百度是从来没有让人失望过。我看到新闻以后就好开心的，赶快跑到百度去用一下呗，结果告诉你说不行，你现在还用不了，你要收费。我说不是免费了吗？他说对，我们从4月1号才开始免费的。那天是愚人节，我们要从愚人节那天开始免费。为什么会有这么傲慢的人？你这个免费了就要在愚人节嘲笑我是傻瓜，那天给我来用。今天我上去看了，还要求付费。据说最近一段时间，百度在开会研究怎么退款，因为有些人直接订了一年的，那你没有用掉的这个部分是要给人退钱的。未来到底会不会做统一模型的入口，这个还有待来去看。百度这条路会更加的难走，为什么呢？主要是搜索收入。因为一旦大家转型了，说我们以后都去用AI搜索了，百度的搜索广告输入就没了。现在根本就没有办法去填补这块空白。就算是我们去交这每个月的使用费，他挣那点钱也绝对弥补不了搜索引擎的或者搜索广告的这个输入。</p>



<p>根本就顶不住。所以，一旦流量流向了免费的百度文心一言深度搜索功能的话，百度的命格子就断了。谷歌其实也面临同样的问题。谷歌的处理方式是什么呢？到现在为止，Gemini的客户端还收费，但是呢，AI&nbsp;<a href="http://studio.google.com/" target="_blank" rel="noreferrer noopener">studio.Google.com</a>，就是Gemini的这个程序员网站，大量的模型是可以免费使用的，最新的模型都在那里使。所以，谷歌是非常矛盾的。通过这个Gemini调用谷歌搜索，这个功能是可以的。我原来算过，具体是一毛多钱还是两毛多钱，我想不起来了，反正你调一次就要给钱，调一次就要给钱。这个到底是不是未来的方式不好说，大家也还在摸索。</p>



<p>Grok3和Llama4应该是在未来几周都会出来。所以我估计呢，2月和3月份应该会非常非常热闹，大家所期待的大模型都会出来。现在还有人说Claude也快出4了，这个事现在大家也在期待看看，他们到底能够做出一个什么样的东西出来。未来的模型市场，会向什么样的方向发展呢？其实核心的问题，到现在为止依然没决掉。什么是核心问题？就是大模型到底咋挣钱。这个事情其实到目前为止，谁也没想明白，特别是C端的钱，到底怎么把它挣回来。因为B端的钱，你一旦有这个彻底开源免费的版本了，这个B端的钱，就基本上跟大模型公司没关系了，后边的就是系统集成公司该去挣这个钱了。因为我们现在已经都有开源、免费的大模型了，我们只要用这个大模型就可以了，剩下的就是，我们去买这个几百万一台的一体机，DeepSeek R1一体机，买的过程中呢没准还可以有些回扣。剩下能够挣的钱就是C端的钱。那么C端到底咋挣钱？是这个广告费吗？还是做电商呢？还是做直播带货还是做什么？这个还是需要未来一段时间大家去思考。</p>



<p>OpenAI想的这个方式，就是给这个免费用户用笨一点的模型，给这个付费用户用聪明一点的模型。这件事呢，反正我觉得，这是OpenAI为整个行业挖的下一个坑，这个大家拭目以待，等这个事情开始跑起来以后。</p>



<p>咱们看看效果到底怎么样。这就是我们今天的第一个故事：鲶鱼已经来了，所有的鱼都得动起来，甭管你乐意不乐意。DeepSeek来了，所有的人就不要再想着在ToB这块能够大捞特捞了。在ToC这一块儿，怎么去寻找新的商业机会和商业模式，才是大家需要去思考的问题。好，这就是我们今天的第一故事。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
