<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>千问 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%e5%8d%83%e9%97%ae/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Thu, 28 Aug 2025 00:48:19 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>千问 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>设计师又要失业了？谷歌 Gemini 2.5 Flash Image 发布，AI 修图能力太逆天！</title>
		<link>https://lukefan.com/2025/08/28/%e8%ae%be%e8%ae%a1%e5%b8%88%e5%8f%88%e8%a6%81%e5%a4%b1%e4%b8%9a%e4%ba%86%ef%bc%9f%e8%b0%b7%e6%ad%8c-gemini-2-5-flash-image-%e5%8f%91%e5%b8%83%ef%bc%8cai-%e4%bf%ae%e5%9b%be%e8%83%bd%e5%8a%9b%e5%a4%aa/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Thu, 28 Aug 2025 00:48:18 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[Google的故事]]></category>
		<category><![CDATA[3D玩偶生成]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI修图]]></category>
		<category><![CDATA[AI发展趋势]]></category>
		<category><![CDATA[AI取代人工]]></category>
		<category><![CDATA[AI生成]]></category>
		<category><![CDATA[AI科普]]></category>
		<category><![CDATA[AI绘画]]></category>
		<category><![CDATA[AI视频生成]]></category>
		<category><![CDATA[DALL·E]]></category>
		<category><![CDATA[Gemini 2.5 Flash image]]></category>
		<category><![CDATA[MidJourney]]></category>
		<category><![CDATA[Nano Banana]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[stable diffusion]]></category>
		<category><![CDATA[VEO 3]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[产品图设计]]></category>
		<category><![CDATA[保持一致性]]></category>
		<category><![CDATA[偷跑模型]]></category>
		<category><![CDATA[千问]]></category>
		<category><![CDATA[可灵]]></category>
		<category><![CDATA[国内大模型]]></category>
		<category><![CDATA[图像编辑]]></category>
		<category><![CDATA[多图融合]]></category>
		<category><![CDATA[多模态大模型]]></category>
		<category><![CDATA[局部编辑]]></category>
		<category><![CDATA[技术评测]]></category>
		<category><![CDATA[模型评测]]></category>
		<category><![CDATA[电商作图]]></category>
		<category><![CDATA[科技前沿]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[移除瑕疵]]></category>
		<category><![CDATA[美工]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[职业危机]]></category>
		<category><![CDATA[自然语言编辑]]></category>
		<category><![CDATA[草图转设计图]]></category>
		<category><![CDATA[行业变革]]></category>
		<category><![CDATA[视觉推理]]></category>
		<category><![CDATA[视觉设计]]></category>
		<category><![CDATA[设计师]]></category>
		<category><![CDATA[谷歌AI]]></category>
		<category><![CDATA[谷歌DeepMind]]></category>
		<category><![CDATA[豆包]]></category>
		<category><![CDATA[迭代式修改]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2491</guid>

					<description><![CDATA[付费频道订阅：https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join

美工要失业？先别慌，听我爆料：全网火的“香蕉小模”Nano Banana，其实是谷歌偷跑的Gemini 2.5 Flash Image🍌！这货不是生图花架子，是改图王者：一句话把你的自拍→桌面场景→PVC手办→相框合影，一条龙安排💥；多图合成、局部精修、模糊擦瑕、迭代修改还牢牢守住人脸一致性，推理力拉满🧠🎯。更骚的是先偷跑再官宣，不翻车那套懂的都懂😏

怎么玩？上AI Studio就能试，4美分一张🪙；视频党用VEO 3 fast，带BGM秒出短片🎬🎵，成本直接砍半。四大门派你站谁：MJ的美、OpenAI的懂、Gemini的稳、SD的家族军？🧪

兄弟们，设计师真要慌了吗？评论区开杠，顺手点个赞让我冲热榜🔥

设计师又要失业了？谷歌 Gemini 2.5 Flash Image 发布，AI 修图能力太逆天！

谷歌 Gemini 2.5 Flash Image 震撼发布，其颠覆性的 AI 修图与图像编辑能力，让“设计师失业”的讨论再次引爆！这款曾以“Nano Banana”之名偷跑并爆火的模型，真正强大的并非从零生图，而在于对现有图片的精准修改和二次创作，这恰恰是商业设计领域的核心需求。

本期视频将深度解析 Gemini 2.5 Flash Image 的核心特性：它如何通过强大的多模态推理能力，实现自然语言驱动的局部编辑、完美保持主体外观一致性、合成多张图片内容，以及进行多轮次迭代修改。我们将探讨这种“改图”能力的提升，对电商作图、产品设计、广告创意等行业意味着怎样的冲击，并将其与 Midjourney、DALL-E 及 Stable Diffusion 等主流 AI 绘图工具进行横向对比，分析当前图片生成模型的竞争格局。

如果你对最新的 AI 工具和商业趋势感兴趣，或是正在思考人工智能将如何改变设计行业，千万不要错过本期内容。欢迎点赞、订阅并开启小铃铛，第一时间获取前沿资讯！

#Gemini #谷歌AI #设计师 #AI绘图 #人工智能
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="设计师又要失业了？谷歌 Gemini 2.5 Flash Image 发布，AI 修图能力太逆天！" width="900" height="506" src="https://www.youtube.com/embed/lXX5Kt5J6IM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>美工，或者说设计师，又要失业了吗？Gemini 2.5 Flash image发布了。</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。</p>



<p>前一段时间，有一个叫“小香蕉”的模型，叫Nano Banana。这样的一个模型呢，在很多的开源模型评比网站上，突然就火了。这种网站是干嘛的呢？还有很多的同类型的模型放在上头，你去向他提出要求，他让不同的模型同时生成结果以后，大家去做评比用的。很多人发现，这个模型很棒。</p>



<p>最近在很多的社交媒体上出现这种：有一个照片，旁边是根据这个照片做的3D PVC的打印玩偶的一个图像。这种图其实都是用这个叫Nano Banana做出来的。你先给他个照片，然后你给他提示词说：“请按照这个照片给我布置一个桌面，桌面的左边是个电脑，电脑上应该有这个3D设计软件，正在设计3D人偶。右边呢，是一个相框，里头是他的照片。桌面上放一个有支架的PVC的3D打印人偶，这个人偶就是根据这个照片打出来的。”给它这样的一个提示词，它就一次性给你搞定了。这个还是非常非常强悍的。</p>



<p>这个模型到底谁家的？搞不清楚。而且很多人还去造假的Nano Banana，为什么？因为太有流量了。一堆一堆人上来说：“我这也有一个Nano Banana，你们赶快来试一下。”我就被人骗过，上去了以后发现效果一般嘛，就很失望就走掉了。大家就猜说，这有可能是谷歌家新出的图片模型。到8月26号，突然这个模型就发布了——谷歌的Gemini 2.5 Flash image。拿出来一看，就是这个Nano Banana。而且呢，在谷歌发布这个模型之前，Deepmind——就是谷歌下边做AI这个部门的——很多人都发了画了一只香蕉的Twitter，说：“你看我们在暗示点什么吗？你们自己来猜一下，我们到底要干什么。”实际上，大家都已经明白他们要干什么了。</p>



<span id="more-2491"></span>



<p>这种偷跑小模型的方式呢，是最近比较流行的一种方式。前边GPT-O SS也被发现偷跑过，现在Gemini 2.5 Flash image也是偷跑了一段时间，而且引起了轰动。这种偷跑模型的方式，跟大家藏着掖着，像苹果开发布会似的，发布之前大家谁都不许说，签保密协议，谁谁敢说出去就如何如何，到底有什么差别呢？差别就是，你如果是前面保密的话，最后发出来就是一锤子买卖，如果翻车，你就直接倒霉。谷歌其实翻车过好几次了，Gemini最开始发布的时候就翻车了，怎么各种问题都答不对，然后股价暴跌。现在这种偷跑模式呢，如果反馈不好呢，我就再接着改，我就不发布了；如果反馈特别好，我就赶快给它发布出来。它就不会翻车了，它是这样的一个策略。所以现在越来越多的人喜欢采用这种偷跑方式。</p>



<p>咱们说回来，这个Gemini 2.5 Flash image到底是一个什么样的模型呢？上一次大家喊设计师和美工失业的时候，是什么时候？是Gemini 2.0 Flash image发布的时候，就是它上一个版本发布的时候。</p>



<p>上一次是怎么出圈的呢？其实谷歌的Gemini画图效果一般，不是特别惊艳，上一次出圈也是因为改图。只有改图改得好，才容易出圈。很多人说不对，说这个生图模型都在干这些事情，为什么改图改得好就能出圈呢？大家要注意，跟设计师和美工相关的需求，特别是有商业价值、或者叫有人付钱的需求，是生图多还是改图多？一定是改图多。</p>



<p>咱们举一个最标准的例子。我们现在要做电商网站，我们在网站上需要有一个商品的展示图。我有一个商品图片了，然后呢，我需要把这个图片放在各种场景、灯光和环境下，再去出一些新的图片出来。这个就是需要美工去干活的。像在亚马逊，他们用了一个特别笨的办法，他们找一照相机，三视图1、2、3拍三张照片，这就是你产品的照片了，那这产品卖得好才怪了。京东在这个北京，专门有一个巨大的影视基地，没想到吧？干嘛的呢？就是拍这个产品图的。你们谁要卖东西了，到那去把这个产品给他，他给你搭好布景，打好灯光。比如说你要卖一个杯子，他在杯子旁边给你摆上瓜果蔬菜，摆上一些小点心，把这杯子都拍一遍，再在后边给你P上各种的图片。而且这些P了图以后还要注意什么呢？这个图P上去的这部分要有版权，这个是非常非常重要的。你不能说我卖东西，这个图后边比如说我P了一个椅子或者P了一个什么东西，这个图片你没版权，这是会被人告的。阿里也有这样的巨大的拍摄基地。你卖任何东西，你想把东西卖好，你就上拍摄基地去拍去。即使拍完了以后，他还是需要上设计师、上美工上去来修这个图。或者说我这还缺点字，那个地方还需要一些别的东西摆在一起。因为你不可能说，我要把所有拍的东西都摆一块嘛，那有的时候你就需要去抠图，然后再把它摆上去。所以这是真正设计师干得比较多的活。所以在这一块干得好，大家才会说设计师跟美工要失业了。</p>



<p>那么，改图是不是要比生成图片要难呢？大家想没想过这个问题？答案是很肯定的：改图绝对要比生成图片要难。为什么呢？你需要先理解这张图片，这个图里哪个地方是人，这人哪个是脸，哪个是身子，哪个是腿。当我们发生一些什么样变化的时候，我怎么能够保持它的一致性？说比如说，我拍了一个低头的照片，说这不太好，你抬起头来，然后再笑一笑。我把演员拎回来，或者把模特拎回来，说你再给我拍一次，成本很高。那我们直接叫给这个改图模型，你去给我干这件事情，它就可以干得很好。这个非常非常难。在原来2.0 Flash的时候，这玩意儿还干不太好，特别是跟人脸有关的事情。但是到2.5 Flash，这个已经干得非常非常强了。大家可以去看一看网上流传的一些有趣的事例吧，我也会做一点点小的事例，放到咱们YouTube的shorts里头，这个还是挺好玩的一件事情。所以，如果我们没有办法对图片进行很深刻的理解，把需要改的部分抠出来，改完了以后再把它贴回原来那个地方去，这个是做不成的。所以这是推理能力的上升，不是它的图片生成能力上升，而是推理能力上升了。</p>



<p>Gemini 2.5 Flash image到底有什么新特性呢？第一个，它是基于Gemini 2.5多模态大模型做的推理。我们现在国内的模型，千问3是一个多模态模型，Deepseek还是一个纯文本模型，它是没有多模态理解能力的。豆包1.6最新的版本，它是一个多模态模型，可以直接进行视觉推理的。GPT-O3、GPT-5，这都属于多模态的推理模型。你没有这种底层的话，是干不了这活的。给你一张图片，你连图片到底画的是什么都理解不了，你连图片上到底是画了几样东西、每个人的边界在什么地方、他们到底是在说话还是在打架、还是在聊天，你都分不清楚的话，你就没有办法做后边改图这个事情。你比如说给他一张图说：“现在让他给我穿上西服革履。”你必须要把人身上的衣服都理解清楚，这个是衣服，穿上西装以后到底应该长什么样，这事要理解明白了，推理清楚了，他才有可能生成出结果来。</p>



<p>那么第一个就是多模态大模型。第二个，支持自然语言驱动的精准局部编辑、模糊背景、移除瑕疵、添加颜色、擦除物品，这个都可以。而且呢，在编辑的过程中，能够完美的保持人物、动物等主体的外观和姿态的一致性，这个是修图里边最难的。像我们经常让豆包去修图，或者可灵去修图，修完了以后经常发现什么问题？不像了。你像我上传一张照片，说：“来，给我把背景换成一个海滨的背景。”海滨背景换了，但是前面那人不是我了，可能看着稍微有些似是而非，但是绝对不是我。那这个就失去了修图的意义。你必须要保持一致性，而保持一致性是整个修图里边最难的。</p>



<p>再往后呢，它可以合成3张以上的不同图片的内容，创造出组合的新作品。我看到有人做的Demo是把6张照片，六个人照片搁一块，说：“来，把这六个人的照片给我生成一张大的合影。”然后这六个人合在一起了。他有时候也会翻车，不是说每次都成功，但是呢，他已经有这样的能力了。还有人去测试什么呢？我给你一屋子，给你一书柜的照片，给你一床的照片，说：“来，把这书柜跟床给我摆屋子里。”他就可以把这个事给你办好。</p>



<p>支持多轮次迭代式的图像修改，不影响已确定的无关元素。这话什么意思呢？就是你给他一张图，这次给我加一床，下次给我加一个床头柜，再在床头柜上给我放本书。你可以这样迭代地、一次一次地去要求他改。你说在床头柜上加书的时候，那个床不会发生任何变化。这个很难的。像国内豆包什么这些模型，你让他在床头柜上加书的时候，那个床就发生扭曲，就发生变化了，因为他是把所有东西重新生成了一下。</p>



<p>这个Gemini 2.5 Flash image呢，还能够理解和转换手绘的草图，用于教育和设计应用。比如说我们手画了一张图，这应该有个按钮，那个地方应该有个窗口，你把这东西扔给他，说：“来，给我生成界面。”咔咔给你搞定。这个还是非常非常强的功能。</p>



<p>最后呢，是禁止生成不当内容，并为所有AI生图嵌入水印和原数据。就是谁生成的图是可以看出来的。它不会像GROK家的这个生图模型似的，你让它做各种过分的事情都可以做。这个Gemini 2.5 Flash image还是相对来说比较克制的。其实谷歌的大模型一直都是比较克制的。咱们看看这几家，OpenAI还没上市，虽然它是老大，但是毕竟不是上市公司。谷歌这是上市公司，多少年的行业老大了，它真丢不起这人。它出一点点小问题，就马上会股价暴跌。我记得上一次谷歌的生图模型给他们惹这种麻烦是什么时候？说你给我生成第一次世界大战的这个战场，图片里头发现男的女的、黑人白人黄种人在一块。说这不对，西线应该都是白人，都是男的，不应该是这样。他说不，我们要多元性。最后导致被认定为翻车，导致他们整个的产品下线。</p>



<p>现在呢，拿这个模型去生图还是挺便宜的，它是4美分生成一张图，整个的价格还是比较低的。跟国内的同类生图模型的成本应该差不太多，但是它的效果要好一些。同时呢，谷歌还发布了另外一个更新，就是VEO 3出了一个fast版本，就是快速版本。VEO 3呢是谷歌现在的视频模型，效果也是很不错的。它们大概是40美分生成一秒钟，这个成本也降下来了，原来大概是要80美分生成一秒钟，成本直接砍半。</p>



<p>这些新的工具到底怎么用呢？我们今天就不给大家看演示了，我会未来一段时间慢慢的把生成的结果给大家看看吧，大家自己去玩就好了。你说我现在想去使用Gemini 2.5 Flash image，可以用AI studio这个网站，<a rel="noreferrer noopener" href="https://xn--aistudio-bf1nt91a5mk0i6a4m8b.google.com/" target="_blank">它的域名是aistudio.google.com</a>。进去了以后，你就选择Gemini 2.5 Flash image，选完了以后，你就提交各种的提示词也好，给他参考图也好，多给几张参考图也好，你就命令他去干就完了。我印象里应该免费，但是我不太确定了，因为我的这个账号是已经开始付费了，所以我现在是肯定能用的。我上去了以后，它会提醒我说免费的是有一些限制的。如果你想开心使用的话，你可以通过API去调用，也可以去使用一些调用了Gemini 2.5 Flash image模型的这些应用，他们也会给大家提供一些服务的。</p>



<p>下一个就是API调用。API调用的话，我准备过几天去玩儿吧，这个应该也是比较有趣的。它因为实在是太新了，它更新了以后，所有挂他的像什么Defi、N8N这些东西都没有更新呢，可能要等到再过一周的版本，这些产品就更新了。但我现在去调的话，通过http直接访问，应该也是可以使用的。那就是4美分一张图，4美分一张图，是这样来用的。</p>



<p>你说我现在想去画视频、想去生成视频，行不行？VEO 3 fast没有任何问题。如果你有Gemini Pro的这个账号，个人的Gemini账号是Pro版本的，一个月20美金的这个版本的，每天呢可以生成三条，每条8秒钟。这个已经是效果非常非常好了。而且它这个VEO 3 fast的话是带音乐的。我刚才命令它说这个图片让它动起来，让它给我去跳一个街舞，然后它就直接把音乐给我配好了。待会我会把这个视频给大家发到short里边去，挺好玩的。</p>



<p>那你说我现在不想在Gemini Pro里头充20美金，行不行呢？可以。你像我这样有一个上大学的儿子，我就用他的大学edu的邮箱去申请了一下，我就可以使15个月的Gemini Pro，免费就可以用了。你说你没有这样的儿子，去找一下。现在我看淘宝上好像有人去做这个生意，20人民币帮你去做验证，就是EDU邮箱，去收一个邮件去验证一下，你就可以使15个月了。但是这种我估计用的人多了以后可能会被封，这个比较危险。</p>



<p>当前图片生成模型的格局是什么样的呢？Gemini 2.5 Flash image这个模型出来了以后，会不会打破现在这个格局呢？现在呢，基本上是四大门派。第一个门派是Midjourney，它生成的东西呢，最精细，最有艺术感，对于各种的艺术风格模拟的最像，这个是别人谁都比不了的。第二个呢就是OpenAI。OpenAI呢属于是理解能力很强，因为它自己的推理模型非常强嘛，就是你给它很多的元素，给它非常复杂的逻辑的时候，它都可以给你画上，但是画的结果呢差强人意，也就只能如此了。OpenAI他们去做一些改图呢，也没有Gemini 2.5 Flash image好，但是呢保持一致性上做的还可以，要比Midjourney要做的好。Midjourney就属于一个纯生图模型，改图这一块一般，或者是说一致性参考这一块呢，效果都一般。第三个，Gemini呢，特别特别适合改图，它的这个生成的部分属于将就，还能看，但是这个效果比前面两个就要差一些了。第四波就是stable diffusion以及他的朋友们。就跟郭德纲上去讲，说中国相声界的复兴是需要靠于谦和他的家人们，每次就是于谦的爸爸、于谦他老婆、于谦的什么，全靠这玩意讲的。另外一波也是这样，stable diffusion和他的家人们，比如说stable diffusion，然后包括Flex，它们的改图有一个叫Konnect的模型，k开头的，不是c开头的，有这样的一个模型是可以进行改图的。像马斯克XAI里边应该用的是他们家的东西，或者是在这个模型基础上再训练，再改出来的东西。国内呢，包括可灵、豆包、千问，他们的这些图片模型呢，应该都是在这个基础上去做出来的，都是一脉相承的。他们也在卷改图，但是比这个Gemini 2.5 Flash image来说，就差的非常非常远了。</p>



<p>Gemini的2.5 Flash image的成功，给中国的大模型公司带来什么启示没有？这个咱还是要讲一嘴的。就是基层模型的、或者叫底层模型的推理能力上升的时候，一切能力就都会上升。所以大家其实卷的是最底层的这个模型，而最底层的这个模型，你就真的是需要20万块以上的H100才能够有所提升。现在已经没有什么奇迹了，说我现在用很少的算力卡就可以把这种模型训练出来，然后去追赶美国，这个事有些难度。所以国内的模型在这一块上，底层推理模型上，能力还是需要去追赶的。</p>



<p>而国内各个大模型公司呢，他们的图片模型、图形模型和推理模型一般是分开发展的，还没有真正发展到说我们要把它结合在一起。你像豆包，豆包的推理模型是推理模型，图片模型是单独的另外一个模型，它两边一点关系没有。所以这一块呢，还是需要改变的。千问也是这样的，千问呢有专门的千问的image模型，也有千问image Edit模型。我昨前两天还在玩千问image Edit，效果也还行吧，但是你要跟这个Gemini 2.5 Flash image比，这事就没法比了。但是呢，都是各玩各的。其实谷歌家一开始也是各玩各的。谷歌原来是Gemini模型是Gemini模型，然后呢他们有一个叫IMAGEN这样的一个模型，现在已经发展到4.0了，这个模型可能用的人也不是很多，所以就直接开始转型了，把Gemini模型跟这个图片模型直接合在一起了。OpenAI家其实干的也是一样的活，它最早的那个图片生成模型叫达利，DALL·E，达利2、达利3，达利3完了以后再往后就没了，再往后再出的图片模型叫GPT Image。大家走的都是同一条路。所以国内后边想要迎头赶上的话，就要把这些专门的图像模型扔掉，要把这些生图的功能跟大的推理模型，或者叫基座推理模型，要捆绑在一起，才有可能进一步的提升。</p>



<p>现在呢，当推理能力上升的时候，完全可以使用agent的模式，极大的提升绘图跟改图的能力。刚才我讲改图，实际上是做视觉推理。你把这个图理解的很清楚了，说我到底要画什么，哪一块是动的，哪一块是不动的，你把这个东西搞明白了以后，他才可以去调用这些生图的模型，把每一个小块生成好，然后再拼在一起。像loveart这些设计师的AI agent呢，其实干的活也是一样。但是现在从谷歌搞的Gemini 2.5 Flash image这种模型来看，我觉得loveart这种设计师的AI agent就稍微悬了，又被覆盖了。</p>



<p>好，讲到这里，大家也觉得比较无聊了，赶快都去玩起来，这个东西非常非常的好玩。老范以后再看到有类似的事情，再跟大家慢慢的分享，给大家带来乐趣才是我的核心目的。</p>



<p>好，这个故事今天就讲到这里，感谢大家收听。请帮忙点赞、点小铃铛、参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>，也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。</title>
		<link>https://lukefan.com/2025/08/18/deepseek-r2%e9%9a%be%e4%ba%a7%e7%9c%9f%e7%9b%b8%ef%bc%81%e9%87%91%e8%9e%8d%e6%97%b6%e6%8a%a5%e7%88%86%e6%96%99%ef%bc%9a%e5%8d%8e%e4%b8%ba%e6%98%87%e8%85%be%e8%8a%af%e7%89%87%e8%ae%ad%e7%bb%83%e5%a4%b1/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 18 Aug 2025 13:35:27 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[华为很厉害]]></category>
		<category><![CDATA[英伟达，NVIDIA，黄教主，GPU]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI芯片]]></category>
		<category><![CDATA[AI训练]]></category>
		<category><![CDATA[AMD]]></category>
		<category><![CDATA[Anthropic]]></category>
		<category><![CDATA[B100]]></category>
		<category><![CDATA[Claude 4]]></category>
		<category><![CDATA[CUDA]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[Deepseek R2]]></category>
		<category><![CDATA[Function Call]]></category>
		<category><![CDATA[Gemini]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[GPT-5]]></category>
		<category><![CDATA[Grok 4]]></category>
		<category><![CDATA[H100]]></category>
		<category><![CDATA[H20]]></category>
		<category><![CDATA[H800]]></category>
		<category><![CDATA[Kimi]]></category>
		<category><![CDATA[Llama 4]]></category>
		<category><![CDATA[Meta]]></category>
		<category><![CDATA[NVIDIA]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[TPU]]></category>
		<category><![CDATA[XAI]]></category>
		<category><![CDATA[中美科技战]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[传闻]]></category>
		<category><![CDATA[千问]]></category>
		<category><![CDATA[升腾910C]]></category>
		<category><![CDATA[华为]]></category>
		<category><![CDATA[华为升腾]]></category>
		<category><![CDATA[国产替代]]></category>
		<category><![CDATA[国产芯片]]></category>
		<category><![CDATA[大模型]]></category>
		<category><![CDATA[大模型训练]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[开源]]></category>
		<category><![CDATA[技术瓶颈]]></category>
		<category><![CDATA[推理]]></category>
		<category><![CDATA[散热问题]]></category>
		<category><![CDATA[浸没式液冷]]></category>
		<category><![CDATA[液冷]]></category>
		<category><![CDATA[深度求索]]></category>
		<category><![CDATA[百度]]></category>
		<category><![CDATA[算力]]></category>
		<category><![CDATA[腾讯]]></category>
		<category><![CDATA[芯片战争]]></category>
		<category><![CDATA[英伟达]]></category>
		<category><![CDATA[辟谣]]></category>
		<category><![CDATA[金融时报报道]]></category>
		<category><![CDATA[难产]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2469</guid>

					<description><![CDATA[兄弟们，震惊部又来！FT曝：DeepSeek R2被升腾拖进产房卡壳，华为救火队常驻也拉不动，最后无奈切回NVIDIA 🙃。更离谱：8.15-8.30的“官宣”，居然是R1自己幻觉出来的…😂

现实是：训练≠推理。海外已是10万块H100开团，我们这边910C一热就“打怪不能存档”🫠；液冷得全浸泡，相关股票倒是先起飞了💦📈。真能稳训大模型的，除了英伟达就剩谷歌TPU了。

两大“国运级”相撞，先躺的不是DeepSeek，只能继续等奇迹。DeepSeek不融资不表演，憋大招也许真有可能？点个赞，保佑R2别再难产；评论区站队：N卡、TPU还是升腾，你押谁？🤔🔥

 DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。

揭秘DeepSeek R2发布推迟的真正原因：传闻因华为升腾芯片在关键的大模型训练阶段遭遇技术瓶颈，导致项目被迫换回英伟达GPU。这不仅暴露了国产AI算力在稳定性与多卡协同上的严峻挑战，更凸显了我们在追赶GPT-5、Llama 4等动辄需要20万块H100训练的顶级模型时所面临的巨大算力差距。

本期视频将深度剖析《金融时报》报道的背后细节，探讨为何被寄予厚望的华为升腾芯片难以胜任长时间、高强度的大模型训练任务。从散热问题到多芯片互联速度，我们将层层解析国产算力芯片的现状与困境。同时，我们也将追踪DeepSeek R2发布的“乌龙”传闻——竟是其上一代模型AI自己的“幻觉”所致？

当全球AI竞赛进入算力决战阶段，DeepSeek作为国内的希望之星，它的每一步都牵动人心。国产AI算力能否突破重围，支撑我们走向真正的AI强国？观看完整视频，了解这场AI算力之战的幕后故事。别忘了点赞、订阅并分享你的看法！

###
#DeepSeek #华为 #AI芯片]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="DeepSeek R2难产真相！金融时报爆料：华为昇腾芯片训练失败，揭秘国产AI算力的“卡脖子”困境。" width="900" height="506" src="https://www.youtube.com/embed/RfBUVJ6pHTI?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>8月14号，英国金融时报发了一篇报道，说Deepseek R2模型之所以难产，是因为在使用华为升腾芯片训练的时候，持续遇到了技术问题，最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队，常驻在Deepseek，手把手帮忙调教升腾服务器，但仍然无法完成训练。无奈之下，Deepseek只能退回老路训练，重新切换回性能更加可靠的Nvidia的GPU，升腾芯片仅退居辅助，用于模型推理环节。</p>



<p>虽然没有华为和Deepseek官方的回应，也没有他们的辟谣，但是呢，据说是援引了三位知情人士的一些说法，也进行了很多交叉验证，所以这个事情呢，大概率是真的。</p>



<p>国运跟国运相碰撞的时候，升腾也号称是国运级产品，Deepseek肯定是国运级产品，为什么是升腾不灵呢？升腾芯片是可以替代的，也还有一堆竞争对手，所以出现问题以后，他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶，但是地位是不一样的。升腾和国内的其他算力芯片，以及其他那些大模型，从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候，必须是升腾不行了，不可能是Deepseek不行了。</p>



<span id="more-2469"></span>



<p>大家为什么会这么期待Deepseek R2呢？现在又有千问3，也有Kimi、Mini Max，还有豆包等，有一大堆的这些模型出来，怎么就只有Deepseek才行呢？其他人为啥都不行呢？其实现在呢，很多新的这些模型已经并不比Deepseek R1的性能差了，基本上是可以替代使用的。但是大家依然在期盼Deepseek R2，而且你只要讲Deepseek要出R2了，就会有流量。这个原因其实很简单，因为我们在跟国外的大模型竞争中打不过了。</p>



<p>国外已经进入了10万级芯片的训练时代了。Llama4，40万块H100训练出来的。虽然Llama4翻车了，但那也是10万块。而马斯克XAI的Grok 4，20万块H100训练出来的，效果相当不错。GPT5的话，现在推测也是20万块H100训练出来的。Anthropic的Claude 4，据说呢是40万块H100，但是呢它这个数并不是那么准确，40万块H100呢是一个部署的数量，并不是精确的训练的数量。另外一个没说的是Gemini 2.5。Gemini的2.5是没有公开数据，因为他们家使的TPU，其他人都是使的GPU，所以呢没有办法去比较，但应该也是几十万块H100的一个算力，才有可能训练出Gemini 2.5来。</p>



<p>以前是一个国外大模型特别强，特别是GPT4压着所有的模型的时候，我们终于期盼到了Deepseek R1一出来，觉得我们好像又可以了。但是现在我们发现，国内的大模型跟国外这些明显有差距了。我们只能再去期盼Deepseek，因为其他这些肯定是追不上的。那没有20万块H100，这个日子就没法过了。国内的算力芯片呢，大家也都知道不是那么靠谱。这个时候大家期待的就是奇迹了。</p>



<p>Deepseek V3、Deepseek R1，他们呢号称使用了2,048块H800，还不是H100。他们这个算力转换，可能也就是1,000多块H100。拿这样的算力就直接训练出来了，大家觉得你们可以用很少的卡训练出来，还可以震惊世界。现在我们还搞不定20万块的H100，是不是依然可以期待Deepseek再创造一次奇迹呢？</p>



<p>Meta花了好多钱收入进去的亚历山大王曾经在接受采访的时候说，Deepseek手里头有5万块H100，压根就不是他讲的几千块就给这事搞定的事。而且呢，新加坡3月份还抓了一些向大陆走私英伟达芯片的人，有传闻说这些芯片的采购方里边包括Deepseek。</p>



<p>Deepseek呢也正式做出过回应，2025年2月份做了回应。Deepseek强调，仅使用了2023年合法采购的H800芯片，其他我都没用。但是讲完了这个以后，甭管你原来这个东西到底有还是没有，你讲这个话以后肯定就不能再用了吧？所以呢现在大家期待说，这个反正你们原来是这么讲的，我们就这么信了。那以后呢创造奇迹也只能是等着你了。哪怕是使用H20芯片，用很少的芯片训练出来，堪比20万块H100芯片训练结果的这种奇迹，也不是完全不可能吧？这个怎么说呢，人有多大胆，地有多大产吧。我们总还是要有一些希望吧。</p>



<p>新的模型没有出来，但是新的论文呢，Deepseek其实一直不断在产生。在V3跟R1之前，Deepseek也没做什么铺垫，这不也就突然蹦出来了吗？他是这样去期待这个Deepseek的。</p>



<p>原来讲是8月15号到30号之间要发新版本，最后Deepseek自己出来辟谣说：“对不起，我们发不出来。”英国金融时报出来说，被这个升腾给拖累了。那这消息是怎么传出来的呢？Deepseek原来是有没有说过自己要去发Deepseek R2这件事呢？</p>



<p>首先呢，是Deepseek R1震动了世界，应该是在2025年春节前后的时候，我印象里特别深刻。Deepseek R1出来以后，我还连续做了很多天的直播来跟大家讲这个事情。国际大厂呢，在Deepseek R1的这种搅动之下，纷纷转向。转向什么呢？主攻数学、科学与编程，然后呢是长上下文、工具调用和agent，以及指令依从、降低幻觉。</p>



<p>数学跟科学这块呢实在太难了，这个咱们不擅长，而且那个你真的是需要可能10万块、20万块卡，你才可以把这事搞定，咱们没有。那编程呢基本可用，国内的这些模型做编程，肯定没有Anthropic的Claude 4好用，但是呢也基本上可以跑。长上下文、工具调用和agent这块呢，包括指令依从这一块呢必须要有，这一块其实国内的大模型基本上已经追上了。剩下的呢降低幻觉这事咱们就不谈了，反正有幻觉还是可以甩锅的事情。全面开源，这个是国内大模型真正卷的地方。千问直接把200多b的模型直接就开源出去了，Deepseek 600多b的模型直接开源出去了。这件事情我们在努力的往前走，所以各有所长吧。基础设施这块、数学科学这部分实在是费劲，大家就期待Deepseek来再创辉煌了，其他人就不管了。</p>



<p>Deepseek发R2这件事呢，其实传了两回。一回呢5月份，风起云涌。每一次说Deepseek要出R2的时候呢，都是风起云涌的时候，大家都在上新模型，说呀Deepseek你也得上，所以就会开始给他传这个事儿。</p>



<p>今年5月份，发生了一些什么样的事情呢？首先呢Claude 4、Opensource和sonnet这些模型直接出来了，王炸。5月份开谷歌IO，Gemini 2.5 Pro和Gemini 2.5 Flash直接发布，这个其实现在已经是我的主力模型了。GPT呢当时倒是没有什么特别大的动作，上了一个Deepseek 4.5，但是呢也没有引起特别多的响动。大家就说Deepseek你们也该来了。但其实呢Deepseek没有去出R2，而是把Deepseek R1的模型稍微的小步更新了一点点。</p>



<p>6月26日，the information就做了一个报道，说Deepseek R2原来计划是5月份发布的，但是呢因为梁文峰对于Deepseek R2表现的性能不是很满意，决定推迟了。路透社呢也引用了the information的这个报道，国内的媒体呢也纷纷去引用。但是这件事呢，并没有得到Deepseek官方的回应。Deepseek这个公司就是这样，他基本上不怎么回应大家的这个响动。你们猜吧，猜完了以后我也不理你，除非是有一些太过分的，否则他一般不说什么。</p>



<p>Deepseek呢也不是说没更新，就是做小版本更新。像Deepseek V3出了0324版，也就是2025年3月24号出了一个版，把分数又往上刷了刷。因为每一次去更新这些模型，一定要刷分数上去。代码能力，特别是前端代码能力呢，有所提升。拿这玩意写个网页没什么问题，但你说我要做一些大的架构，或者做一些这种后端的东西，可能就要稍微费劲一点。做算法的东西要费劲一点。为什么？因为它Deepseek有一个问题，就是它的上下文比较短，想去做一些大的架构上的东西，你必须上下文长，你得能把整个代码塞进去才行，这块还是要费点劲的。然后他把中文写作能力做了一些提升，Deepseek其实一直在努力的方向，就是中文推理。因为在海外的这些模型，很多都是使用英文推理，然后再翻译成中文的。他说我们直接用中文推理这个事，是不是OK？他们一直在努力干这件事情。使用体验上呢也有所提升，特别是function call更加准确了。在做AI agent的时候，其实核心就是function call的能力，就是我们先描述一堆的功能，然后交给大模型，大模型在完成整个的语言生成的过程中呢，去根据你描述进来的这些function，去决定我要调哪个、不调哪个，或者如何去调用、什么时候调用。Deepseek V3 0324呢，就在这一块做了一些增强。</p>



<p>Deepseek的R1呢，其实也更新了一个版本，就是0528。大家在传说Deepseek要出R2，讲的其实就是0528的这个版本。而这个版本呢，其把这个分又往前刷了刷，减少生成的一些错误信息。因为Deepseek最大的让大家无法忍受的东西是什么呢？就是胡编乱造，他太喜欢瞎编了。所以在这一块呢，稍微做了一些调整，但是依然胡编乱造的很厉害。Deepseek 210528呢，还支持了Json输出和function coding，提升了调用的准确度，但是呢不能叫R2。这就是5月28号的这个版本。</p>



<p>紧跟着就开始传说了，说8月15号到8月30号，要准备发布Deepseek R2了。这个消息是怎么来的呢？首先肯定还是要风起云涌一下。8月份发生了些什么事情呢？马斯克XAI的GROK4发布了，Anthropic又发布了Claude 4.1 Opensource，OpenAI发布了GPT5。GPT5这东西到底好不好使，大家各自去领会。大家可以认为说，GPT5是一个划时代的产品，但是也可以认为说，GPT5就是山姆奥特曼为了要去忽悠融资去搞的一个事情。因为GPT5出来以后，OpenAI的估值已经正式从3,000亿美金提升到5,000亿美金了，而且是孙正义要去买这个单，说您这5,000亿美金我认了，我去买去。</p>



<p>所以呢8月份风起云涌了。那么空穴来风呢，你这事怪不得别人。在Reddit上有人发了个帖子，这个帖子特别有意思，他说他去问了Deepseek R1：“Deepseek R2什么时候发布？”他等于是把这个东西交给Deepseek R1了。但是大家注意，Deepseek R1这个大模型呢，它并不代表Deepseek这公司的一些官方的观点，只是说这个模型给你生成了这样的一个结果。Deepseek R1回答了：“8月15号到8月30号之间发布。”而且号称呢是引用了雪球和东方财富等可信的信源，而且进行了多个渠道的证实。</p>



<p>Deepseek R1的幻觉其实一直都是很严重的，虽然经过0528的调整以后，但依然很吓人。而且Deepseek R1的最大幻觉是什么？就是编造可信的信源。说我从哪哪引用了，你点进去以后，压根就没有这篇文章。但是甭管怎么说，这个文章就在Reddit上就贴出来了，随后呢这个消息就逐渐的被传播和放大了。国内的很多的媒体、自媒体就开始引用这篇消息，特别呢是华为下边的一些科技媒体进行了转载。而且呢在标题里边还夹带了私货，讲的是什么呢？讲的是深度求索，就是Deepseek这个公司，“升腾芯片版本Deepseek R2预计在本月发布”。它讲的就是说，它是使用升腾芯片来去做训练的。</p>



<p>华为都说了，两大国运级产品强强联合了，那信吧，这事怎么办呢？国内一帮的媒体就冲上去说：“我们信了，确实是有这事了。”到8月14号，英国的金融时报出来报道，说升腾芯片拖累了Deepseek 2。然后动点科技、腾讯科技就出来辟谣，原引自公司内部人士，也就是Deepseek这公司里边的人说了，说8月份不会发布Deepseek R2。所以呢，8月15号到30号之间发布Deepseek R2的一个消息，实际上是Deepseek R1自己编出来的，其他人把这个编的信息信了，直接截了个图发到这个Reddit上，以此来发酵出来的一个过程。</p>



<p>那么Deepseek R2到底遇到了一些什么样的问题呢？首先升腾芯片确实是有问题的。升腾910C的这个芯片，虽然单芯片的算力在部分指标上呢，已经达到了H100的水平，但是呢显存的带宽不够，想从显存里调数据回来，速度是没有H100快的。而且最大的问题是什么？就是多个芯片之间的速度，就是我需要把数据在多个芯片之间进行流通的时候，这个速度是相对来说比较差的，而且差的很远。你要想去做同样的训练的话，你就需要更多的时间全功率的去运转。因为你想，人家都已经达到20万块H100这样的集群的规模再去训练新的模型了，你没准就是需要这个50万块或者60万块升腾910C串在一起，才能达到人家那个算力，而且你需要很长的时间去连续的运作，这个对于升腾910C的这种考验来说就比较大了。</p>



<p>这样的芯片，其实是没有办法长时间稳定地去运行的。并不是说训练一个模型，这头输入进去数据，过三个月去开盖看结果。中间每过一段时间，可以取得阶段性成果，再继续往下训练。但是中间这个过程呢，你是不能停的。你中间比如说准备了一批数据，你去训练了，如果这批数据没有训练完，升腾910C就直接冒烟了，就不干活了，这一波呢就白干了，你必须要从这个节点接着往后干。这个玩意有点像什么？有点像打怪升级，你一定要打死这个妖怪才能存盘，你没打死这个妖怪就不让你存盘。升腾910C在这块差一点。</p>



<p>那为什么差呢？升腾910C呢，是两个910B堆叠在一起的，散热肯定会出问题。就算是上了液冷以后，依然是搞不定这个事情。</p>



<p>其实同样的坑，英伟达也踩过。大家还记得H100独挑大梁好久了吗？很多人应该还是有印象的。甚至呢到现在为止，H100已经成为一种计量单位了。现在我们再去算说：“你这个算力相当于多少英伟达芯片呀？”我们都是以H100的这个算力作为一个计量单位的。就是因为H100挺长时间在那孤独一只。为什么它会孤独一只呢？本来计划替代H100的这个产品叫B100，叫Blackwell黑井100，这个芯片直接就跳票了。研究完了以后开了发布会，开完了以后，这个芯片压根就没有大规模的部署，也没有交付。为什么呢？就是他做的就是这种堆叠技术，导致散热失败。散热失败了以后会直接把版卡烧掉，这压根就没有办法去交付。到H200出来了以后说：“那这咱交付这个呗。”但是一开始依然是受困于散热问题，导致了大规模交付的延迟，一直到今年才开始去交付H200。</p>



<p>后面的工艺呢不断的进步，再加上全面液冷。H100这些机器是可以进行风冷的，你拿风扇吹它是OK的。但是到H200这个机器开始交付的时候，你必须是液冷。而且这种液冷呢，还不是种普通的液冷，叫完全浸泡式液冷。见过这种游戏主机装机视频的这些人，会知道他们那个液冷是怎么做的。他在芯片外面给你涂散热的胶，然后呢把这个液冷管贴上去，靠这个液体呢快速的把你热量带走到外边，再去找风扇把这个水给你吹凉了，再重新循环，它是这样来工作的。但是这种工作方式对于H200来说还是不行的，它必须是全浸泡式的，就是把整个的H200的芯片，或者包括它整个的板卡，一起泡在这个液体里头。这就肯定不是水了嘛，是一些不导电的水，整个泡在里头，才能够达到散热的这个能力。</p>



<p>当然了，甭管是英伟达也好，还是升腾也好，散热都是有问题的，导致什么呢？就是液冷概念股都涨疯了。你只要说我这公司是做液冷的，就赶快涨。而且现在都是浸没式液冷，就把整个板卡都泡里头。A股上强瑞科技、英维克、深林环境、飞龙股份，大概有十来家公司，都是专门做液冷的。飞龙股份是专门给升腾这个384超节点做液冷的。美股那边的话，有一个叫VERTIV的一个公司，它的代码是VRT，是专门给英伟达做液冷的公司，这个公司的股票也是涨的可好了。</p>



<p>讲回来，910C这个芯片连续的做长时间训练的话，液冷也压不住，直接把板卡烧掉。即使是有大量的华为的工程师坐在Deepseek公司里头，出来我帮你调，他也调不过去。实际上这些华为工程师能调什么呢？他们只能调一件事，就是CUDA里头没有实现的部分，我来帮你去实现一下。华为的这个升腾910C，他们使用的训练相关的代码的话，是华为自己开源的一套训练框架。这套框架据说是可以实现CUDA 70%的功能，但是还有30%你是实现不了的。那这一部分由华为的工程师到现场来搞定。再怎么搞，该冒烟、该着火、机器直接停摆，这个事它是解决不了这问题的。</p>



<p>另外一个传闻，DEEPSEEK R2出不来的原因是什么呢？是数据标注的质量跟速度不过关。这个呢也没有得到官方的证实，也是坊间在流传。因为在中国嘛，很多的数据肯定还是需要去审核一下的，这个审核的过程是相对来说比较麻烦的。</p>



<p>而且Deepseek呢，其实一直也是一个比较低调的公司。提前预热，不停的出来吹牛，这件事呢是容易翻车的。山姆奥特曼每次出来讲GPT5，说：“我太震惊了，我从来没见过这么棒的。”等GPT5发布的时候，大家说：“这就能让你震惊了？您到底是眼皮子有多浅？”马斯克在发布GROK4之前，也在说：“这是我所见过的最聪明的大模型。”也有人认为老马吹的有点过头了。</p>



<p>其他的公司都必须不断的发模型，跟着一起卷，不断的来吹牛，这个事是有原因的。为什么？因为这些公司是需要融资的。马斯克发GROK4发完了以后，马上就给XAI去融资。山姆奥特曼GPT5发完了马上融资，这公司直接值到5,000亿美金了，他现在已经是没有上市公司里头最贵的一家了。第二家应该是SpaceX，再往后是3,000多亿的字节跳动。但是大家注意，字节跳动的收入现在好像已经超过Meta了，这个是非常吓人的一个事情。所以这些人他有融资的需求，你就必须得不断的出来炒这个热点。不炒的话，你说我现在想提高估值，融资这事费劲了。而且现在Anthropic也在融资，而且是要按照1,500亿美金的估值要去融资，我估计他们后边的日子不是那么好过，现在他们的CEO应该已经奔中东，找中东土豪去给钱去了。</p>



<p>谷歌呢虽然不需要融资，但它后边有股市、有股价、有市值这些东西，所以呢不能落后，所以谷歌也必须要不停的推陈出新。实在做不出来东西呢，确实哪块也做的不太行，怎么办呢？你还可以像扎克伯格那样，表演抢人大戏这种行为艺术。我发2亿美金的薪水，我把人抢回来。虽然你的Llama4像屎一样，Llama再往后怎么走谁也不知道，但是看到你表演行为艺术表演的这么热闹的话，Meta的股价涨的也还可以。所以大家必须不停地去表演。</p>



<p>但Deepseek自己，他没有这种融资的需求，所以呢也并不太需要出来表演，自己踏踏实实做自己的事就好了。至于说他到底做成什么样，咱们也只能在外边来看。</p>



<p>大家有没有想过这样的一个问题：到底是谁家的芯片能够训练大模型呢？训练跟推理是完全两个不同的概念。训练你是必须要长时间高强度的工作，而且在中间是不允许停的。而且在训练的过程中，我们需要在更多的芯片之间进行数据的调度，更更大规模的这种协同。国内的这些算力服务器都搞不定这件事情，他没有办法说让这么多的芯片相互之间进行协调的情况下，这么长时间稳定的工作下去。推理的话相对来说要简单一些，可能只要几个芯片读出很少的数据来，他就可以把这事干完。比如说我们去提了一个问题，他给我们过了几秒钟做了一个反馈，反馈完了以后呢，他就可以再给我们分配其他芯片了。在这个过程中，芯片出现任何的问题，过热了或者说你对资源进行切换了，它是不影响的。所以呢推理咱们国内的这套系统是可以的，但是训练搞不定。</p>



<p>那么到底谁家的芯片可以做训练？英伟达这个必然是可以的。除了英伟达之外，还有哪些芯片可以进行大规模的这种模型训练呢？你说我这个芯片训练了一个10B的、20B的模型，这不算。或者说你说我这个虽然能够训练，但是我训练的模型从来没有人用过，这个也不算。现在唯一证实了可以进行大规模训练的，而且是训练这种大模型的，还被大家普遍接受和使用的，猜猜是谁？</p>



<p>很多人可能会猜是不是AMD？AMD MI300，或者现在应该是MI三百零几了吧，这样的一个芯片。不是他们。现在唯一的一个能干这个活的人，是谷歌的TPU。Gemini大模型是在上面训练出来的，Anthropic的Claude模型有部分声称是在TPU上训练的。除了英伟达之外就是他们了，再没有第二家了。</p>



<p>那老牌厂商像AMD、英特尔，号称我这个芯片是可以进行大规模的模型训练的，也给出了一些用他们的芯片训练大模型的实例，甚至呢还训练了一些不太流行的小模型拿出来去开源，但是他们训练出来的模型也没人用。AMD跟英特尔呢，一般大概也就是10B或者20B以内的这些小模型。另外一个呢就是富士通，富士通用一款ARM的CPU呢，也训练过一点可能也是10B以内的这种小模型吧，也没有听说过谁去用他们。</p>



<p>其他的一些ASIC芯片呢，也是号称自己能做。所谓ASIC芯片呢叫专用集成电路，像升腾、谷歌TPU呢都属于ASIC。亚马逊、阿里、百度呢，也都号称可以进行训练，但是呢没有实例。亚马逊号称是我拿自己的ASIC芯片呢，做了一些训练，也有几个模型，但是呢谁都没用过。OpenAI的模型，有些据说是在亚马逊上进行训练，但这个事呢，也没有得到最终的证实。百度呢是号称自己设计的ASIC芯片可以去进行训练，但是反正百度自己家的模型烂的跟屎一样，我们就不去评论了。</p>



<p>至于华为的升腾芯片呢，科大讯飞号称是在上面训练的。但是呢也有朋友跟我讲说，科大讯飞其实是在英伟达上训练出来的，只是呢对外宣称是在升腾上训练的，这个我们就不去做考证了。只是科大讯飞的模型，其实也没有那么普遍，除了一些教育领域里头有些人会去用，其他的让你自由选择的时候，很少有人会去选择用科大讯飞的模型。华为呢自己号称是在升腾模型上训练了盘古大模型，但是呢前面被内部的人指责蒸馏、指责抄袭，之后就不再有任何声音了。所以现在华为已经不再提他的盘古大模型这事了，估计是准备装一段时间的死狗以后，再次遥遥领先。所以华为的升腾模型，其实没有证实过训练成功过任何的大模型。Deepseek R2呢，应该是真的尝试过，但是败下阵来。</p>



<p>华为跟Deepseek官方呢，都没有出来证实，就既没有出来说我用了，也没有出来说我没用。所以呢升腾芯片，没有成功的训练出过任何一款大家普遍使用的模型。</p>



<p>那么国内的算力芯片是怎么样去竞争的呢？英伟达大概占54%，就一半多。升腾呢占28%，其实已经占的非常非常多了。像寒武纪等等其他的一些芯片公司的，所有的加在一起，可能还加上AMD的吧，一共占18%。这个大就是国内整个的算力芯片的一个分布情况。</p>



<p>国产的芯片呢，目前来看都是可以去做推理了，但是呢没有哪一个真的跑出来模型过。所以国内的算力芯片，基本上是没有办法做训练的。</p>



<p>现在呢还有一群的“赢学家”在鼓吹英伟达芯片里头有追踪器。但是这些“赢学家”呢，现在有点吹不下去了。他说呀：“这个英伟达的芯片里头，是不是在集装箱里装追踪器了？”还有人说：“是不是在包装箱里装追踪器了？”或者是说：“在服务器里边装追踪器了？”因为他们也知道，在这个芯片里头是装不上的。还有人说：“H20这里头肯定没有追踪器，但是呢H100、B200这个里头有追踪器。”这个呢都想多了。因为中国人是经历过挖矿的，我们是完完全全可以把芯片整个扒下来，重新拿新的版卡去焊。而且大量的，其实做英伟达版卡的公司就在国内，所以我们完全可以拿他的版卡，自己回来去加工这个事情。装追踪器这个事是没用的。</p>



<p>中国官方对于H20的态度呢，也很暧昧。有人就到外交部的新闻发布会上就问：“说你们是不是要准备禁售H20？”外交部的新闻发言人回答是：“没听说过这件事情。”中国的这些官员回答，一般都不会说是或者不是，通常回答是：“请你看以前的表态”，或者“请你看有关部门的表态”，或者说“我不知道”、“没有听说过”。所以他这一次的回答叫“没听说过”。</p>



<p>中国政府呢，也没有明令禁止说我们去销售H20或者谁去买这东西。但是呢潜规则就是这样去运营的。多家媒体，比如说Bloomberg、Marketwatch就做了些报道，说中国的监管部门针对H20芯片表达了强烈的不信任和谨慎态度，尤其是强调相关芯片可能存在后门的风险和数据隐患，建议企业回避在政府或敏感用途使用H20。所以呢这些H20可能最后去做训练就完了，推理的这块就通通交给国内的升腾384超节点就OK了。</p>



<p>还有报道说字节跳动、腾讯、百度等企业被召集，这些人是准备去买H20的。国内的有关部门把你们都召集一块说：“你们为什么要买这东西？买多少？”给他们开这样的会。监管侧重国家安全与网络安全审查，并未提出商业禁令，就是我们还是让你买，但是你买之前呢，我们得把你拎来稍微恶心恶心。所以现在都约谈过了。</p>



<p>总结一下吧。Deepseek R2呢确实是难产了，肯定的没有出来。国内的算力芯片目前呢，也无法进行大规模的模型训练，可以进行推理这个事没问题了，但是训练搞不定。20万块H100量级以上的大模型训练，国内很难突破。如果20万块串在一块可以训练大模型的话，我们可能至少需要40万块或者50万块，比如像升腾910C这样的芯片凑在一起，而且我们所需要消耗的电和时间，可能都是要呈几何级数上升的。因为我们卡之间的联通的速度是相对来说比较慢的。所以比如说H100，它也不是说一直就不坏，它可能工作个20个小时或者是40个小时都会坏一次，会出现问题，对于老外来说就可以去接受了。对于我们来说呢，我们可能要求要连续坚持500个小时不出问题，才能够回收回来数据了，因为算的慢嘛，真的达不到。大概就是这样的一个情况。</p>



<p>国内算力卡的这些供应商呢，很有可能会阻碍中国大模型的进展和训练。为什么呢？自己做不好，你又不让别人买H20，可能中国的大模型再往下一步走，就会变得非常非常困难了。</p>



<p>未来国内算力卡是不是可以训练大模型呢？反正一两年之内呢稍微有一些困难吧。国内的大模型到底能不能用呢？基本还是能跑的。高深的数学、科研研究、物理学或者这些基础学科，我们不去研究了。就是让你去做一些信息整理，现在国内大模型基本上都是可以用的。</p>



<p>还是稍微耐心地等待一下Deepseek的慢慢发展吧，它反正中间只要不需要融资，它也不需要出来吆喝，万一有惊喜呢？这个也不好说。这就是我们今天要讲的故事。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>德国全境禁用DeepSeek只是冰山一角？昔日我们建墙防外，今日欧美反向修墙防内，AI时代的数据主权争夺战已然打响。</title>
		<link>https://lukefan.com/2025/07/01/%e5%be%b7%e5%9b%bd%e5%85%a8%e5%a2%83%e7%a6%81%e7%94%a8deepseek%e5%8f%aa%e6%98%af%e5%86%b0%e5%b1%b1%e4%b8%80%e8%a7%92%ef%bc%9f%e6%98%94%e6%97%a5%e6%88%91%e4%bb%ac%e5%bb%ba%e5%a2%99%e9%98%b2%e5%a4%96/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Tue, 01 Jul 2025 00:44:10 +0000</pubDate>
				<category><![CDATA[DeepSeek大模型]]></category>
		<category><![CDATA[“墙”反着修]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[AI伦理]]></category>
		<category><![CDATA[AI禁令]]></category>
		<category><![CDATA[API]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[Coze]]></category>
		<category><![CDATA[DeepSeek]]></category>
		<category><![CDATA[DeepSeek封禁]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Minimax]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[TikTok]]></category>
		<category><![CDATA[YouTube]]></category>
		<category><![CDATA[中国]]></category>
		<category><![CDATA[中美科技竞争]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人工智能监管]]></category>
		<category><![CDATA[信息安全]]></category>
		<category><![CDATA[全境封锁]]></category>
		<category><![CDATA[加拿大]]></category>
		<category><![CDATA[千问]]></category>
		<category><![CDATA[印度]]></category>
		<category><![CDATA[可灵]]></category>
		<category><![CDATA[合规]]></category>
		<category><![CDATA[国际关系]]></category>
		<category><![CDATA[大语言模型]]></category>
		<category><![CDATA[字节跳动]]></category>
		<category><![CDATA[应用商店下架]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[德国]]></category>
		<category><![CDATA[德国禁用DeepSeek]]></category>
		<category><![CDATA[快手]]></category>
		<category><![CDATA[意大利]]></category>
		<category><![CDATA[技术封锁]]></category>
		<category><![CDATA[政府禁令]]></category>
		<category><![CDATA[政府设备禁用]]></category>
		<category><![CDATA[数据主权]]></category>
		<category><![CDATA[数据出境]]></category>
		<category><![CDATA[数据安全]]></category>
		<category><![CDATA[数据本地化]]></category>
		<category><![CDATA[数据渗透]]></category>
		<category><![CDATA[数据隔离]]></category>
		<category><![CDATA[智谱AI]]></category>
		<category><![CDATA[欧盟]]></category>
		<category><![CDATA[澳大利亚]]></category>
		<category><![CDATA[科技战]]></category>
		<category><![CDATA[科技评论]]></category>
		<category><![CDATA[网络安全]]></category>
		<category><![CDATA[美国]]></category>
		<category><![CDATA[美国实体清单]]></category>
		<category><![CDATA[老范讲故事]]></category>
		<category><![CDATA[苹果]]></category>
		<category><![CDATA[谷歌]]></category>
		<category><![CDATA[通义]]></category>
		<category><![CDATA[防火墙]]></category>
		<category><![CDATA[阿里巴巴]]></category>
		<category><![CDATA[隐私保护]]></category>
		<category><![CDATA[韩国]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=2348</guid>

					<description><![CDATA[家人们！救命啊！德国直接把DeepSeek APP从应用商店下架了！啊啊啊啊啊啊啊！我整个人都震惊到不行！这操作简直绝了，墙要反着修了吗？！以前是我们防外面信息进来，现在全世界都要建墙防数据流出去？！这AI时代，到底还能不能好好玩了？！

先给你们划重点！德国数据保护专员直接要求苹果和谷歌下架DeepSeek APP，说是为了保护数据隐私。可问题是，APP封了，网站没封啊！德国的小伙伴们照样能上DeepSeek官网聊天、调用API，封了个寂寞有木有？！更别说意大利，直接全境封锁网站，澳大利亚、美国一些部门连开源模型都不让部署，简直是“宁可错杀不可放过”！

再说几个扎心事实：
1. 全球封DeepSeek分层级，有禁APP的，有禁网站的，还有直接不让部署开源模型的，像美国NASA、五角大楼，硬核到不行！
2. DeepSeek自己也挺佛系，压根没打算费劲去合规，爱封封去吧，我不care！意大利、德国发邮件要求数据本地化，人家直接不理，哈哈哈！
3. 数据安全这事，真没啥好办法！AI时代，“大海捞针”都不是梦，伊朗都被渗透得透透的，数据咋防啊？！

老实说，我看完这新闻整个人都破防了！AI这么牛的技术，本该让生活更方便，结果却被各种封禁、限制，隐私和创新到底咋平衡啊？！家人们，你们咋看？DeepSeek被封是保护我们，还是限制了未来？评论区聊聊呗！

最后狠狠喊一句：我不允许还有人不知道这事！德国封DeepSeek，AI大战已经开打，咱们普通人还能咋办？点赞收藏，持续关注，我会继续跟进这话题！冲冲冲！🔥

德国全境禁用DeepSeek只是冰山一角？昔日我们建墙防外，今日欧美反向修墙防内，AI时代的数据主权争夺战已然打响。

德国一纸禁令引发全球关注，德国禁用AI的浪潮似乎正以DeepSeek为起点席卷而来。然而，这次看似严厉的DeepSeek 封禁行动，实际上仅限于下架手机应用，网站和API服务依旧畅通，被指“封了个寂寞”。这背后揭示了在AI全球监管趋严的背景下，各国对数据隐私保护的深切焦虑，从意大利到美国，多国政府已采取不同层级的限制措施。事件的核心争议不仅在于数据是否回传，更触及了开源模型安全的深层问题——部分国家甚至禁止在政府设备上部署其开源模型。DeepSeek的遭遇，鲜明地反映了当前中美AI博弈的新态势：昔日我们建墙，今日西方反向筑墙，一场围绕技术主权和数据流动的全球竞赛已然拉开序幕。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="德国全境禁用DeepSeek只是冰山一角？昔日我们建墙防外，今日欧美反向修墙防内，AI时代的数据主权争夺战已然打响。" width="900" height="506" src="https://www.youtube.com/embed/N6Cz-qfWHig?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>德国全境禁用DeepSeek，以后这墙要反着修了吗？</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的YouTube频道</a>。2025年6月27日，德国数据保护专员梅克坎普宣布，已经要求苹果和谷歌从德国应用商店下架DeepSeek应用程序了。德国不是第一个，估计应该也不是最后一个。第一个是谁？意大利。意大利在每一次反对AI这件事情上，都是占第一个。原来他还反过OpenAI的ChatGPT。2025年初，也就是R1刚出来的时候，就直接给封了。</p>



<p>欧盟的其他国家现在是一个什么状态呢？他们比较纠结。荷兰是禁止政府手机安装DeepSeek的APP；比利时是建议公务员的手机不要安装，但是不强制；西班牙是有消费者权益组织在呼吁，政府到目前为止没有采取任何的措施；英国表示说他们在持续的监测，目前还没有做出反应。</p>



<p>其他的一些国家对DeepSeek是什么样的一个态度呢？加拿大所有的政府设备禁止使用DeepSeek；丹麦政府设备禁止使用，但是丹麦有5个大区里头，只有3个在执行，剩下两个还在看。</p>



<span id="more-2348"></span>



<p>美国在这件事情上比较散装。什么叫散装呢？就是他也是管政府，其他的就是全民的，这个现在还没管起来。而且政府是各自出禁令：NASA禁止员工使用，五角大楼禁止访问，美国海军禁止使用DeepSeek相关技术，都是直接禁掉了。德克萨斯州禁止政府设备使用DeepSeek。美国这么多州里头，只有德克萨斯出了这样的法令，其他地方都没动。数百家私营企业已经要求企业网络安全服务公司阻止访问DeepSeek。这个什么意思？就是很多的美国企业呢，他们会把公司内部的安全事项包给一个公司，说你们公司来帮我去做我们整个的网络安全，请在设置防火墙的时候，把DeepSeek整个的网站都给我封掉，不允许访问。这是美国的情况，没有全国性的法律。全国性的法律有人在提，但是现在距离能够真正成为法律还比较远。</p>



<p>澳大利亚是阻止政府设备访问DeepSeek服务；韩国是政府国防部各个部门禁止使用DeepSeek服务。</p>



<p>印度比较好玩，财政部禁止使用DeepSeek和ChatGPT。我们能够跟ChatGPT一起被禁止，也是很光荣的一个事情吧。电子和信息技术部建议本地部署，解决隐私问题，说咱们别封禁这玩意，咱们自己部署一套东西咱自己使吧。这个是印度还比较务实的一个玩法。</p>



<p>封禁DeepSeek，大家都在封，分很多个层次。</p>



<p>第一个层次就是叫政府设备禁用，其他民众不管。很多的政府呢都是这样去做的，包括像最早美国政府去封TikTok，也是这样的。就是政府工作人员的手机，不允许安装TikTok，其他的人我是管不着你的。他们反正也是有言论自由，或者各种的信息自由使用的权利嘛。所以呢，很多的政府是这样来处理这个问题的。</p>



<p>第二种呢，就是叫全境封锁，而且呢是封DeepSeek的APP。大家注意，我们现在都叫DeepSeek，但其实是分很多层级。DeepSeek有开源的大模型，任何人可以把它部署到自己的云服务器，或者部署到自己家里边去。然后呢，有DeepSeek网络服务，就是我们连接DeepSeek的网站，使用这个网站上的聊天功能，或者是使用它的网站上面，由DeepSeek官方部署的大模型，买它的API的TOKEN直接使用。第三个层级呢，才是移动端APP，就是安卓iOS的这个APP。</p>



<p>德国这次呢，实际上进了个寂寞，只封禁了DeepSeek APP。他没有去封禁DeepSeek网站，在德国境内的民众，依然可以通过DeepSeek网站去跟DeepSeek的服务去聊天，也可以通过DeepSeek的网站直接调用DeepSeek服务端的这些API，直接去工作都是没问题的。只是把这个APP给下架了，这个其实没有任何意义。</p>



<p>再往后一层级是什么？就是封这个DeepSeek网站。就是我不但要把你的APP下架，还要封网站，任何人都不允许访问你的网站去跟他聊天，也不允许调用他的API服务。意大利全境是达到这个高度，就是意大利境内你不可以访问<a href="https://deepseek.com" target="_blank" rel="noopener">DeepSeek.com</a>这个网站的。</p>



<p>澳大利亚政府的设备不允许连接DeepSeek网站，也不允许安装DeepSeek的APP。这个其实相对来说比较好做，就是你只要是在澳大利亚政府的所有手机设备上，修改一个域名指向，保证所有指向<a href="https://www.deepseek.com/" target="_blank" rel="noopener">deepseek.com</a>的这个域名，把IP地址直接给它改掉就完事了。这样就即使你安装了DeepSeek的APP，你也访问不了它的服务，它是可以这样来处理的。</p>



<p>美国的很多大公司呢，也是通过他们各自的安全公司服务商的防火墙，封禁了DeepSeek的服务器访问。你拿着手机出去没人管你，你只要拿着手机进来了，连了公司的Wifi了，你就不可以再去访问DeepSeek的服务器了。你装了DeepSeek APP，你进到公司里边来也用不了，它是这么来工作的。那有没有人……</p>



<p>去禁止DeepSeek开源模型部署呢，也有。谁呢？美国国会、五角大楼、NASA是禁止在自己的设备上部署DeepSeek的开源大模型的。你把模型布在这儿，万一这个模型跑着跑着，把我数据偷跑了，这玩意不行。</p>



<p>澳大利亚禁止政府设备部署DeepSeek开源大模型。韩国呢，国防部是不允许部署开源的DeepSeek大模型的。其他的一些政府部门呢，别用它的服务就完事了。你部署模型本地使用，我不管你。</p>



<p>DeepSeek被欧美封禁呢，本身其实也没有太去争取过说解禁，或者说“我怎么能为你服务”。DeepSeek也没惦记这事，爱封封去呗。我反正就开放给你使，你愿意使使，不愿意使拉倒，大概是这样的一个态度。</p>



<p>意大利跟德国呢，其实都给DeepSeek写过邮件，发过信息，要求DeepSeek呢，对其数据的隐私保护措施进行说明和调整优化。就是说：“你这个数据能不能不要回到中国去？你能不能在意大利或者在德国，或者至少在欧盟吧，你建个服务器，把这些数据存在本地？或者能不能告诉我说，这个数据回到中国以后，是不是做了脱敏处理？能不能保证我们的这个信息安全？”</p>



<p>发了信息以后呢，DeepSeek基本上就是“我不理你”。反正我也在你这儿没有什么实体，我也不在你这运营，你拿我也没办法，我就懒得理你。所以意大利政府也好，德国政府也好，发现“我发了要求了，你不理我，那我就给你封掉”。</p>



<p>所以这件事呢，大家也没做错什么。开源模型完全可以在当地部署，将数据存在他们本国，是完全可以达到合规要求的，这个本身是没问题的。但是DeepSeek没惦记做他这个生意呢，也就没有费这个劲。</p>



<p>因为中国其他的这些大模型，包括AI的很多应用呢，都在欧盟、美国使用的很好，并没有被封禁。比如说像千问，阿里的这个模型，开源呢没有问题。国内外访问它是分离的，咱们在国内访问的是<a href="https://www.tongyi.com/" target="_blank" rel="noopener">tongyi.com</a>，在国外访问的是<a href="https://chat.qwen.ai/" target="_blank" rel="noopener">qwen.ai</a>，这个不一样的网址。千问是<a href="https://chat.qwen.ai/" target="_blank" rel="noopener">qwen.ai</a>，就是你各自访问各自的。所以呢，它这个数据本来隔离的，那它就不会有人去封禁你。</p>



<p>而且千问也好，通义也好，它这个用户量其实本身不是很大。它通义是有APP的，千问没有。通义的APP压根就没有在欧盟去上架，就是你这个APP到这个应用市场上架的时候，你可以选说我到底要在哪些国家上架，它没去，所以也没有被封禁的这个机会了。</p>



<p>另外一个中国公司，AI公司在海外有很多用户的呢，就是Mini Max。Mini Max呢，它是国内外也是分开的。</p>



<p>你想去调Mini Max的服务，他还要问你说：“你到底是调国内版还是调国外版？”如果是国内版的话，你的网址是什么？你要上什么地方去申请这个TOKEN？你要调国外版，它网址就不一样。那这样分离的话，它就没有问题，国外也都是允许使用的。只是DeepSeek懒得给你费这个劲了。</p>



<p>另外，你比如像字节、快手，他们的这种AI服务也都是分离的。字节的coze，它在中国访问的是<a href="https://www.coze.cn/" target="_blank" rel="noopener">coze.cn</a>，在海外访问的是<a href="https://www.coze.com/" target="_blank" rel="noopener">coze.com</a>，它就完全分割的。那大家就用吧，没有任何问题。快手的可灵也是这样的，海外跟国内的域名、APP全都不一样，这个就没事。</p>



<p>现在这些大模型公司，大概只有一个是比较特殊的，不是DeepSeek，是谁？是智谱。智谱呢，是被美国列入实体清单了，进入了美国严选。就是中国的这些AI公司呢，原来那些做人脸识别的企业，都因为侵犯人权被挂在实体清单里头，像什么商汤科技、科大讯飞、海康威视、旷世科技、大华股份、一图科技、云从科技，这些都是实体名单里头的。这一波做大模型的公司里头，唯一进到实体名单里头就是智谱。那他的这个模型大家就别使了，其他的其实都没有进到美国实体清单里头去。这就是当前的一个情况，就各个国家到底是如何去封堵DeepSeek的一个情况。</p>



<p>那最后呢，总结一下：德国对DeepSeek的封禁呢，基本上是封了个寂寞。你把APP封了，网站没封，这个其实是没有任何意义的。德国境内的民众依然可以通过手机、电脑登录到DeepSeek的网站上，去享受他们的这种API服务，或者是直接在网站上跟人聊天，这都没毛病。DeepSeek自己呢，也没有惦记着去开拓海外的个人市场，所以呢，也没有费工夫去做合规。如果认真做，其实不会被封，就是DeepSeek本身应该是有能力合规的。</p>



<p>真正担心安全问题的，就不是像德国这样直接把APP封了了事了。真正担心安全问题的，会封禁DeepSeek的开源大模型，就是你不允许在我的设备上部署你的开源模型，这个才是真正有安全意识的人干的活。那是不是有人真的偷数据了呢？这个事真不好说，因为也没有证据。但是现在数据的流转，其实根本是没法封禁的。美国要求美国人的数据在美国，欧盟要求欧洲人的数据在欧洲，这个没有任何意义。即使数据库存在欧洲本地，也有很多方式通过远程的方式，把这些东西直接去进行解读、去进行打包，或者是加密了以后再传回中国来，都是可以做的。所以现在他们各个国家。</p>



<p>制定的什么“守门人”法令，或者各种AI的这种限制法令，对于数据安全来说，基本上是没有什么意义的。而且呢，有了AI之后，原来一些可以保证数据安全的方式，现在实际上都没法使了。</p>



<p>原来是说大量的数据混在无序数据里边，是被保护的，因为很难挑出来嘛。现在有AI了，在海量数据里边“大海捞针”也不是不可能的事情。所以呢，现在真的没有什么安全的方法。特别是伊朗这次被以色列彻底给渗透了之后，核专家一个一个被暗杀了，军队的高层领导一个一个定点清除，所有的这些设备设施，一个一个精准打击，就说明数据渗透这件事情还是非常可怕的。</p>



<p>以前呢，美国人喊中国“门户开放”，现在中国要求美国“技术共享，市场开放”。以前呢，中国通过“墙”保护，外面的信息别流进来；以后呢，可能全世界都需要建墙，保护自己的数据别流出去。</p>



<p>这就是这一次DeepSeek被德国勒令全境下架的一个故事。这个故事今天就跟大家讲到这里。感谢大家收听，请帮忙点赞，点小铃铛，参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>。也欢迎有兴趣、有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见！</p>



<p></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
