<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>云端模型 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%e4%ba%91%e7%ab%af%e6%a8%a1%e5%9e%8b/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Mon, 12 Aug 2024 10:58:57 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>云端模型 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>【宝藏】揭秘！如何在Dify里免费使用FLUX.1大模型！</title>
		<link>https://lukefan.com/2024/08/12/%e3%80%90%e5%ae%9d%e8%97%8f%e3%80%91%e6%8f%ad%e7%a7%98%ef%bc%81%e5%a6%82%e4%bd%95%e5%9c%a8dify%e9%87%8c%e5%85%8d%e8%b4%b9%e4%bd%bf%e7%94%a8flux-1%e5%a4%a7%e6%a8%a1%e5%9e%8b%ef%bc%81/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Mon, 12 Aug 2024 10:58:54 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI工具]]></category>
		<category><![CDATA[AI绘图]]></category>
		<category><![CDATA[AI课程]]></category>
		<category><![CDATA[API Key]]></category>
		<category><![CDATA[API调用]]></category>
		<category><![CDATA[Claude 3.5 Sonnet]]></category>
		<category><![CDATA[Claude 3.5 Sonnet配置]]></category>
		<category><![CDATA[Curl调用]]></category>
		<category><![CDATA[DALL.E-3]]></category>
		<category><![CDATA[Dify]]></category>
		<category><![CDATA[Dify安装]]></category>
		<category><![CDATA[FLUX.1]]></category>
		<category><![CDATA[FLUX.1效果]]></category>
		<category><![CDATA[GPT-4o MINI]]></category>
		<category><![CDATA[MidJourney]]></category>
		<category><![CDATA[OpenAPI Swagger]]></category>
		<category><![CDATA[Restful代码]]></category>
		<category><![CDATA[Stability]]></category>
		<category><![CDATA[stable diffusion]]></category>
		<category><![CDATA[Swagger规范]]></category>
		<category><![CDATA[云端工具]]></category>
		<category><![CDATA[云端模型]]></category>
		<category><![CDATA[付费频道]]></category>
		<category><![CDATA[代码生成]]></category>
		<category><![CDATA[使用体验]]></category>
		<category><![CDATA[使用实例]]></category>
		<category><![CDATA[使用流程]]></category>
		<category><![CDATA[免费使用FLUX.1]]></category>
		<category><![CDATA[免费画图]]></category>
		<category><![CDATA[免费课程]]></category>
		<category><![CDATA[免费账号]]></category>
		<category><![CDATA[免费资源]]></category>
		<category><![CDATA[创意生成]]></category>
		<category><![CDATA[参数设定]]></category>
		<category><![CDATA[图像处理]]></category>
		<category><![CDATA[图像尺寸]]></category>
		<category><![CDATA[图像效果]]></category>
		<category><![CDATA[图像步数]]></category>
		<category><![CDATA[图像生成]]></category>
		<category><![CDATA[图形应用]]></category>
		<category><![CDATA[图片生成示例]]></category>
		<category><![CDATA[图赏效果]]></category>
		<category><![CDATA[工具创建]]></category>
		<category><![CDATA[应用场景]]></category>
		<category><![CDATA[拟人狗图像]]></category>
		<category><![CDATA[提示词优化]]></category>
		<category><![CDATA[提示词生成]]></category>
		<category><![CDATA[教程分享]]></category>
		<category><![CDATA[教程步骤]]></category>
		<category><![CDATA[教程解说]]></category>
		<category><![CDATA[文本文档]]></category>
		<category><![CDATA[文档调用]]></category>
		<category><![CDATA[文生图模型]]></category>
		<category><![CDATA[新手指南]]></category>
		<category><![CDATA[生成模型]]></category>
		<category><![CDATA[硅基流动]]></category>
		<category><![CDATA[程序测试]]></category>
		<category><![CDATA[程序设计]]></category>
		<category><![CDATA[自定义工具]]></category>
		<category><![CDATA[自定义聊天应用]]></category>
		<category><![CDATA[详细教程]]></category>
		<category><![CDATA[运行成功]]></category>
		<category><![CDATA[配置Dify]]></category>
		<category><![CDATA[配置指南]]></category>
		<category><![CDATA[高效图像生成]]></category>
		<category><![CDATA[高质量图像生成]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1480</guid>

					<description><![CDATA[大家好，我是小红书的浓人，今天就是要和大家分享怎么在Dify里面用上超级火的FLUX.1模型，而且重点是完全免费哦！

你没有听错，FLUX.1是由Stable Diffusion创始人们离职后的新作，现在可以说是超火的AI画作生成模型，效果好到没朋友！我自己试了试，简直是太炸了，必须要和我的家人们分享一下！🎉

首先，我们要找到一个能够云端运行的FLUX.1模型。FLUX官网上虽然有，但是要用得好是要收费的。我们找到了一个国内可用的免费渠道——硅基流动这个网站，它让我们不花一分钱就能先跑起来。

接下来就是登录、选择模型、阅读文档和了解如何API调用。对，教程看仔细了，自定义工具里操作一下，把API Code经过我们的魔术手Claude 3.5 Sonnet一加工，搞定！

Dify里面调用FLUX.1模型，是不是真的可以改变阶级的工具？我只能说，真的很好用到哭！只要把提示词、尺寸、步骤这些参数一设置好，你想要的画作就会慢慢成型，看起来就像是曹雪芹再世一般精美。

而今，通过GPT-4o mini和自定义的FlUX.1工具链，我们可以生成任何想要的画作提示词。从头到尾这个流程，让我们这些普通女生也能轻松变成插画大师！

最后，走到今天的这一步，既不是凭空就来的，也不是什么狗屁运气。我们在付费频道里有更多超级实用的操作教程，让大家都能用上这个神器。今天的分享就到这里，记得点个赞、关注一下，我们下次见！啊啊啊啊啊啊啊，激动之情难以言表啊！]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="【宝藏】揭秘！如何在Dify里免费使用FLUX.1大模型！" width="900" height="506" src="https://www.youtube.com/embed/S7aloxGuaH4?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>今天讲一下如何在Dify里面调用最新的文生图模型FLUX.1。FLUX.1是由Stability，也就是做Stable Diffusion的那家公司的一帮创始元老离职后做的新的文生图模型。现在据说效果非常好，我自己试了一下，确实还可以。那么今天跟大家演示一下如何在Dify里边去使用这个FLUX.1模型。</p>



<p>首先，我们要去找一个云端可以跑的FLUX.1模型。你说我直接到FLUX网站上去行不行？没问题啊，但是他们的这个要付费，特别是FLUX Pro是要付费的。我们先找一个免费的，先跑起来吧，特别是在国内能用的这种免费的，先让它跑起来。我们找到了硅基流动这样的一个网站。我们看一下它这个网站长什么样子。这样前面其实跟大家介绍过硅基流动这个项目，先登录进去。</p>



<span id="more-1480"></span>



<p>登录进去以后，我们就可以选择这边的叫文生图了。然后呢，它可以选择FLUX.1-dev。FLUX.1点这个，这个叫这个词就不念了，反正是比较小的这个模型，效果都是很好的，横的竖的都没问题，对吧？然后呢，这个步数，50步到头了，最多就是50步，所以我们就准备来使用这个模型了。</p>



<p>那怎么使用呢？首先要去看文档，对吧？它的API到底是怎么调用的？点一下文档，点到文档以后，我们选API手册，然后呢点击文生图，就到这样的一个页面了。告诉你说我通过CURL怎么去调用的。下一步该怎么办？先把它复制下来。我们到Dify里面去，先增加一个工具，自定义啊，新的一个。在这里呢，我们就要做下一件事了。它使用的是OpenAPI，Swagger这样的一个规范去干活了。我做一个叫随便聊聊的聊天机器人，任何提示词不给他。</p>



<p>然后把 Claude 3.5 Sonnet 直接挂在后面时，我现在就可以跟他聊天了。好，那么我现在要跟他说，请根据以下案例编写一段代码，OpenAPI Swagger 代码，走你。回车，好，他就去干活去了。OpenAPI Swagger 实际上就是包装各种各样的 Restful 代码的一个框架。然后把这一块拷贝下来，我们回到这里贴上，这就是贴好了。以后他就可以去干活去了。哎，先测试一次啊，测试一次。比如说，你看他有这么多的值可以去用啊，这个首先是提示词，比如说“一只喝咖啡看报纸的拟人狗，穿着西装”，好，假设是这样吧。这里呢有一个鉴权方式，什么意思呢？就是很多的这种都是需要授权的，我们需要在这里把我们的 TOKEN 要贴进去。然后 1024&#215;1024 画个方的吧，然后多少步呢，这个 50 吧，刚才不是设到头就是 50 吗？测试一下。呃，这个好像跟我们想象的不太一样啊，我们要求他画这个狗，难道我写错了吗？待会我们想办法让 AI 把我们的语句稍微加工一下，然后再去画。但是呢，至少画成功了啊。再下一步给它起个名字叫 FLUX.1，就这样保存好。我们有了一个叫 FLUX.1，这个前面还有 FLUX.1 from，这是我上次做的。那么下一步我们就要用这个玩意了啊。那么我们去创建一个新的聊天应用，这个应用叫画图。创建模型的话，直接调用 GPT4O mini 吧，然后我们来写提示词。啊，不要看我这提示词写得很长啊，这个没有关系的。而且，这是当时为 DALL.E-3 写的一个提示词。大家可以点击这个按钮自己去生成提示词，这种提示词都是生成出来的啊。我们通过提示词，用户输入信息，生成一个可以画画的提示词。</p>



<p>让他稍微总结一下。然后来工具自定义。刚才我们做的这个FLUX.1，它的提示词是经过加工以后的。然后尺寸，我个人比较喜欢1080P，1920&#215;1080。这个地方的话，50吧，反正多刷几个能够好看一点。好，这个地方就做完了。再往后输出，把提示词放出来，还可以拿它再到MidJourney或者DALL.E-3再画一次，然后再把内容生成的文本输出出来。啊，他最后会给你一个链接，预览一下。一只拟人狗，身着西装，戴着眼镜，喝着咖啡，看着报纸。让我们来试试，画去了。好，让我们看看这幅图怎么样。啊，喝着咖啡，看着报纸，戴着眼镜，穿着西装的拟人狗，对吧？是不是有那么点感觉了？当然，他这个手跟袖子脱开了，稍微差点意思。我觉得已经基本上可以让大家去使用了。</p>



<p>我们今天演示了使用硅基流动的FLUX.1云端模型，而且现在是免费的。使用这种模型，我们到Dify里面去，在工具里面自定义了一个工具Claude 3.5 Sonnet自动生成的。啊，我们只需要把文档里边的这个调用方式扔给Claude 3.5 Sonnet，然后说给我生成OpenAPI Swagger就搞定了。这个里头一个字都没改过，测试成功了以后把API Key输进去。现在的话，你去注册硅基流动会送14块钱，而且这个玩意画多少次不要钱的。</p>



<p>再往后呢，啊，我们演示了使用画图这样的一个流程，先通过GPT-4o mini去做了一个根据输入生成提示词的一个过程。然后呢，再调用刚才我们自己定义的这个插件，生成出来的图片，画出了刚才我们要的这张穿西装、戴眼镜、喝咖啡、看报纸的拟人狗。这就是我们今天给大家演示的，这就是我的一个AI课程。</p>



<p>今天呢，把这个节目放在公众频道里，但是更多的课程呢是在付费频道里。为什么在那边呢？啊，因为这种课程其实看起来比较累，不在公众频道里影响大家了。不过今天这个因为比较好玩，所以跟大家演示一下，具体怎么去装 Dify，具体怎么去给里面做各种配置的课程，是在我们的付费频道里。今天就跟大家讲到这里，感谢大家收听，再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>OpenAI推出GPT 4o mini，这是要卷死谁？Sam Altman封禁中国 API IP后放大招，你就给我看这个？中国大模型是不是有机会弯道超车？</title>
		<link>https://lukefan.com/2024/07/23/openai%e6%8e%a8%e5%87%bagpt-4o-mini%ef%bc%8c%e8%bf%99%e6%98%af%e8%a6%81%e5%8d%b7%e6%ad%bb%e8%b0%81%ef%bc%9fsam-altman%e5%b0%81%e7%a6%81%e4%b8%ad%e5%9b%bd-api-ip%e5%90%8e%e6%94%be%e5%a4%a7%e6%8b%9b/</link>
		
		<dc:creator><![CDATA[老范 讲故事]]></dc:creator>
		<pubDate>Tue, 23 Jul 2024 00:48:07 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[100亿参数]]></category>
		<category><![CDATA[10亿参数]]></category>
		<category><![CDATA[70亿参数]]></category>
		<category><![CDATA[AI Agent]]></category>
		<category><![CDATA[AI模型策略]]></category>
		<category><![CDATA[Anthropic Cloud H3]]></category>
		<category><![CDATA[API代理]]></category>
		<category><![CDATA[API服务]]></category>
		<category><![CDATA[API调用]]></category>
		<category><![CDATA[GPT-3.5]]></category>
		<category><![CDATA[GPT-4o]]></category>
		<category><![CDATA[GPT-4o MINI]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Plus用户]]></category>
		<category><![CDATA[Plus订阅计划]]></category>
		<category><![CDATA[个人服务器]]></category>
		<category><![CDATA[中国市场]]></category>
		<category><![CDATA[云端模型]]></category>
		<category><![CDATA[产品发布]]></category>
		<category><![CDATA[付费频道]]></category>
		<category><![CDATA[价格便宜]]></category>
		<category><![CDATA[价格策略]]></category>
		<category><![CDATA[低价模型]]></category>
		<category><![CDATA[免费用户]]></category>
		<category><![CDATA[函数调用]]></category>
		<category><![CDATA[分岔趋势]]></category>
		<category><![CDATA[功能集成]]></category>
		<category><![CDATA[参数未公开]]></category>
		<category><![CDATA[台式机模型]]></category>
		<category><![CDATA[合作伙伴]]></category>
		<category><![CDATA[商业模型]]></category>
		<category><![CDATA[商业策略]]></category>
		<category><![CDATA[大模型市场]]></category>
		<category><![CDATA[大模型替代]]></category>
		<category><![CDATA[封禁中国IP]]></category>
		<category><![CDATA[小模型]]></category>
		<category><![CDATA[小模型效能]]></category>
		<category><![CDATA[工作流]]></category>
		<category><![CDATA[工作站级别]]></category>
		<category><![CDATA[市场占有率]]></category>
		<category><![CDATA[市场反馈]]></category>
		<category><![CDATA[市场竞争]]></category>
		<category><![CDATA[市场趋势]]></category>
		<category><![CDATA[市场需求]]></category>
		<category><![CDATA[应用开发]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[微型模型]]></category>
		<category><![CDATA[技术优势]]></category>
		<category><![CDATA[技术创新]]></category>
		<category><![CDATA[技术挑战]]></category>
		<category><![CDATA[技术程度]]></category>
		<category><![CDATA[技术进步]]></category>
		<category><![CDATA[技术领先]]></category>
		<category><![CDATA[数据调用]]></category>
		<category><![CDATA[未来计划]]></category>
		<category><![CDATA[本地部署]]></category>
		<category><![CDATA[模型升级]]></category>
		<category><![CDATA[模型性能]]></category>
		<category><![CDATA[浏览器插件]]></category>
		<category><![CDATA[用户体验]]></category>
		<category><![CDATA[用户分叉]]></category>
		<category><![CDATA[用户反馈]]></category>
		<category><![CDATA[用户吸引力]]></category>
		<category><![CDATA[用户满意度]]></category>
		<category><![CDATA[用户粘度]]></category>
		<category><![CDATA[用户需求]]></category>
		<category><![CDATA[田忌赛马]]></category>
		<category><![CDATA[移动端模型]]></category>
		<category><![CDATA[竞争对手]]></category>
		<category><![CDATA[竞争策略]]></category>
		<category><![CDATA[端侧使用]]></category>
		<category><![CDATA[端侧竞争]]></category>
		<category><![CDATA[经济考量]]></category>
		<category><![CDATA[经济高效]]></category>
		<category><![CDATA[视觉多模态识别]]></category>
		<category><![CDATA[训练成本]]></category>
		<category><![CDATA[谷歌Gemini Flash]]></category>
		<category><![CDATA[输入100万TOKEN]]></category>
		<category><![CDATA[输出100万TOKEN]]></category>
		<category><![CDATA[高性能模型]]></category>
		<category><![CDATA[高效模型]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1426</guid>

					<description><![CDATA[OpenAI在封禁中国IP访问其API之后，第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型 ... <a title="OpenAI推出GPT 4o mini，这是要卷死谁？Sam Altman封禁中国 API IP后放大招，你就给我看这个？中国大模型是不是有机会弯道超车？" class="read-more" href="https://lukefan.com/2024/07/23/openai%e6%8e%a8%e5%87%bagpt-4o-mini%ef%bc%8c%e8%bf%99%e6%98%af%e8%a6%81%e5%8d%b7%e6%ad%bb%e8%b0%81%ef%bc%9fsam-altman%e5%b0%81%e7%a6%81%e4%b8%ad%e5%9b%bd-api-ip%e5%90%8e%e6%94%be%e5%a4%a7%e6%8b%9b/" aria-label="阅读 OpenAI推出GPT 4o mini，这是要卷死谁？Sam Altman封禁中国 API IP后放大招，你就给我看这个？中国大模型是不是有机会弯道超车？">阅读更多</a>]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="OpenAI推出GPT 4o mini，这是要卷死谁？Sam Altman封禁中国 API IP后放大招，你就给我看这个？中国大模型是不是有机会弯道超车？" width="900" height="506" src="https://www.youtube.com/embed/NlHlullCcvA?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>OpenAI在封禁中国IP访问其API之后，第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型，这究竟是要卷死谁啊？中国团队是不是有机会弯道超车呢？大家好，这里是老范讲故事YouTube频道。Open AI第一次发布微型模型，以前的Open AI都是一个比一个大，因为原来人家讲的叫Scaring Law，就是这种伸缩法则，只要是变大，我一定会变强。而且，也嘲笑那些小模型说你们肯定不行啊，一定是大的好使。我自己原来也是很喜欢使用大模型，有大的不识小的，这是我原来挑选模型时候的基本原则。但是现在，Open AI开始卷小模型了。</p>



<p>Open AI的这个GPT4O mini有什么特点呢？第一个，快啊，小模型一定是比大模型跑得快的。另外，就是极其便宜，它这个里面输入的信息，100万TOKEN，15美分啊，非常非常便宜了。输出的信息呢，是100万TOKEN，60美分，也就相当于是100万4块多人民币啊，已经快要接近国内的这些模型的价格了。效能呢，也应该是比GPT3.5要强一些啊，这是GPT4O MINI的一个基本情况。</p>



<p>那么，这样的一个鼓励越大越好的公司，原来更多的人力肯定是去研究更大的模型去了。现在说不，我要上一个小的，而且这种小模型呢，跟一般的小模型还有区别。区别在于它可以支持Function Call，可以支持视觉多模态的识别。那么，这是GPT4O MINI比其他的普通小模型所独有的特点。</p>



<span id="more-1426"></span>



<p>以上就是关于Open AI发布GPT4O mini的全部内容，如果你对这个话题感兴趣，欢迎在评论区留言。我们下期节目再见！</p>



<p>型U的地方，那么MINI到底有多大呢？并没有说。其实啊，大家出的这种小模型，这种必原厂商出的小模型，都是不会对外讲说“我到底有多大”。包括一些开源厂商自己去出的一些啊，闭园小模型，也不会告诉外边到底有多大。比如说吧，灵异万物对吧，他的对外模型是开源的，告诉你这个是6B的，9B的，34B的。但是呢，它自己内部壁源的这些模型，就是你直接通过商业方式去买的啊，它就分什么medium，large，是这样分的啊，你不知道它到底有多大。包括像谷歌啊，Gemini Flash到底有多少个参数，你也不知道。Gemini Pro你也不知道有多少参数啊，cloud三个版本，其实各个参版本有多少参数，都是不说的啊。所以啊，Open AI的GPT4O mini到底有多少个参数，也不知道。现在呢，大家普遍猜测应该是在10币以内，大概也就是7币，也就70亿到100亿之间的参数，应该算是最小一个档次的。</p>



<p>怎么用这个模型呢？免费用户跟plus用户，已经可以跟GPT3.5说再见了。那就是我们现在打开了啊，Open AI的聊天网站之后，能够看到的三个模型：一个叫做GPT4O，一个叫GPT4，一个叫GPT4欧mini。三点五已经彻底成为过去式了。API的用户，你现在依然可以使用3.5，因为这个是不可能马上取消的啊，大家都写在程序里头了啊。模型的名字叫GPT3.5，特本什么什么的叫这样名字，你要说我直接把这个模型关闭了。不过，这通常不会发生，因为很多用户和开发者都依赖于它。</p>



<p>然后，上1GPT 4O mini一下替代掉的话，这事肯定不行对吧？那个程序会报错的。所以啊，GPT4O mini啊，现在已经可以为啊，直接使用Open AI API的这些用户开放了。啊，但是呢，3.5还是可以用的，现在我还没法使啊。为什么呢？因为我没有办法，直接从Open AI去买它的API服务的啊。它会识别出来，我在中国大陆不会为我服务的。所以，我现在的CPT相关的API，是通过扣子或者是一些Open AI代理服务去购买的。但现在，这个上面都没有GPT4O MINI的这个模型。为什么在这样的一个时间点，出了这么一个产品呢？他把中国大陆的API的IP封掉了以后，本来想着，他是不是专心的做个GPT5出来，或者做一点啊，把这个前面吹过的牛稍微能还上一点啊。怎么现在整了那么个小东西出来？</p>



<p>首先，大家要想清楚一个问题啊，Open AI就是行业里边的老大。老大最怕什么啊？老大怕竞争吗？啊，现在没有人跟他竞争啊，谁也竞争不过他。虽然现在号称御三家，就是谷歌、Siropic和Open AI里头，已经可以打个有来有回了。但是，从市场占有啊，从整个技术的程度上来说，Open AI还是绝对领先的。那么，他到底怕什么呢？他害怕的东西叫分叉啊。什么叫分叉呢？就是有很多的人是不会去看别的服务的，也不会去用任何其他的大模型，上来就用Open AI家的啊，其他所有我都不用。那么，这个呢，就属于忠实铁粉。但是一旦分岔了以后，可能会出现一些小的分支，这些分支会逐渐壮大，最终可能会影响到Open AI的市场地位和影响力。为了避免这种情况的发生，Open AI可能会采取一些策略，比如推出GPT4O MINI这样的产品，来吸引更多的用户，保持其在市场上的主导地位。同时，通过限制某些地区的直接访问，Open AI可能也在试图保护其技术和市场，防止技术的过度扩散和滥用。</p>



<p>大家说：“哦，不，我不能只用Open AI的，我所有的都要用一下。我要在不同的场景里头，找到不同合适的模型来使用。这个过程要分叉了，老大最怕的就这件事情。他现在已经看到了有分叉的这种方向了啊，或者说，他现在已经看到了有分叉的趋势了。所以，必须要冲出来说，我要把所有分叉的趋势，掐死在萌芽状态啊。这就是GPT4O MINI发布的一个大的前提。因为GPT4和GPT4欧，包括GPT4 Turbo所有的这些模型呢，它比较贵。越来越多的人呢，就希望转型。像我现在做很多这种AI agent，这种工作流，我会把最费劲的一个点交给GPT去做。对于理解能力，对于推理能力没有那么强的节点，我都尽可能去选择更便宜的，这种大模型来工作，或者更小一点的大模型来工作。这个是经济的考量啊，而且我们发现，在这种稍微小一点的大模型，你让他做简单的工作，效果其实是很好的，并不比GPT4差啊。这个是现在Open AI不能允许的啊，你们就老老实实的，你要想去用这个小模型，我也给你提供上啊。这个是要注意。</p>



<p>而且呢，现在所有在跟Open AI竞争，或者说在Open AI这条道路上，追赶他的这些人呢，目标都很明确。怎么叫目标明确呢？每一个人上来说，我现在都是接近GPT4对吧，没有人超过啊，就很少有人超过，或者可能只是在个别指标上超过。整体超过的，现在还没有，或者说不多吧。但是呢，我们现在甭管国内的大模型，国外的大模型，都在努力地追赶，试图在某些方面超越Open AI，这是一个非常明显的趋势。</p>



<p>都说我现在已经接近GPT4了，然后呢，遥遥领先于GPT3.5。对吧，这也是现在的一个时间点。而且，很多的小模型，甚至是这种70亿、100亿、300亿、几百亿这种模型，都已经超过GPT3.5了。GPT3.5有多少个参数呢？当时是1750亿个参数，这么多的参数，怎么还这么差呢？这么多年了，时代在进步，而且AIGC大模型的发展，真的叫日新月异，每一天每一个小时都在发生变化。</p>



<p>这么长时间过来以后，你用原来这种架构，GPT3.5的这种架构，它确实是效能比较低了。所以现在很多的这种1000亿以内的，700亿的，或者是更小一点的，几百亿的，都可以超过GPT3.5。那么GPT3.5就已经必须退役了。</p>



<p>退役的原因也很简单：第一个，原来GPT3.5一直挂在那，不是说Open AI没有更好的模型给大家用，而是什么呢？他希望让你去买它的Plus，让你说，哎，你看这个实在是难使吧，你直接升级，一个月20美金就可以有GPT4用了。GPT3.5跟GPT4之间，一定要有一个很明显的，个人可以直接感知到的差异，你才会觉得我这20美金一个月花的值，否则的话，你会觉得花的不值了。</p>



<p>但是现在其他的模型都赶上来了，你再继续摆这么一个3.5在这恶心人，就已经不太合适了。另外一个是对于免费用户来说，GPT3.5实在是缺乏吸引力，我不愿意付钱，我可以使用Gemini呀，我可以使用很多的其他免费的这种模型。</p>



<p>这些模型，现在已经完完全全超越三点儿五了。所以，这个也是到了该抛弃三点儿五的时候了。另外呢，很多的API代理也让Open AI非常不爽。像我就是用的API代理啊，API代理呢，像跑冒滴漏。像我现在用Open AI的所有API，价格应该是至少打到4折，或者是还要更低一些的折扣啊。我就可以去使用。</p>



<p>到了那么这些的话，Open AI觉得就算是打折，也应该从我这打啊。凭什么你就去打折了啊？这个他是不开心的。而且他现在降到这样的一个程度，为什么这些API代理没有跟进呢？他没利润啊，这些啊，也是会对他们造成一定的影响和损失。</p>



<p>另外，也要开始应对中国了。Open AI肯定发现，封堵了中国IP的API调用之后，Open AI调用数据一定是在暴跌的啊。这个肯定也不是他们希望看到的。</p>



<p>现在我们要讲一下田忌赛马的故事。田忌赛马是什么？就是用我最好的马，对应你这个中间的马啊，用我中马对应你的下马啊。你最上面那个你赢一场算了，剩下的我赢两场。在大模型这个行业里头，其实也是如此的。大家呢会分成不同的层次去竞争，端侧的竞争，就是说我们甭管在手机端、PC端还是各种的啊，设备端吧。那么现在大家在争的是什么？Open AI基本上是不参加端侧竞争的啊。哪怕它是GPT4OMINI，到目前为止，也没有说，这个产品可以给大家在端上使用啊。当然你说，未来会不会把这东西拿到端上来使用？不确定啊。但是至少现在没有说这个事儿。</p>



<p>呃，它这个大家猜测在10B以内，可能7B到8B这样的一个水平上。按道理说，是在手机上可以运行的。对吧，可以在iPhone里头跑。那么是不是说，呃，跟苹果合作了，我干脆就把这东西呃，拿出来就给大家用了。是不是他给了苹果一个类似于一个GPT4OMINI的版本，但是苹果你不允许拿出去再扩散了啊。但是在iOS 18里边，应该会带这样的一个东西，可能性是存在的啊。啊，但是这个事谁都没说。</p>



<p>在端侧竞争上，一般移动端呢，5B以内的跑的是比较好的啊。你如果手机的配置高一些，跑到7B到9B应该也还是能跑的。台式机呢，你到10B左右啊，都是没有什么问题的。包括我们后边讲的这些AIPC，其实AIPC是所有能够跑大模型的台式机里头，水平比较烂的啊。那么工作站呢，就是我们比较高端的台式机，比如说你这里头有独立显卡啊，4090，然后不是4090，你有个四零六零，四零七零那样的独立显卡，或者比如说像我们使用麦克这种呃，M1，M2 Max，或者M3 Max这样的这种机器的啊，那么它就基本上属于工作站级别了。这种机器里头呢，大概跑到三十几B都是可以跑通的啊。再大了跑不动了。</p>



<p>然后像这种个人服务器上，是可以跑到70B的。咱们现在能够接触到的开源大模型，可以到本地跑的，基本上也就是70B，72B到头了。再大一点呢，啊，通1,000问1.5的时候出过一个110B啊，但是那个模型流行的并不是很广泛。</p>



<p>绝大部分都是在七十几币就到头了。这个呢，就是在思域服务器上用的。而且，在70B这个档次上，现在Open AI肯定是感受到压力了。中国团队基本上在70B这个档次上，站稳脚跟了。咱们国内推的各种各样的大模型，基本上都是70B上下的。为什么？因为懒。Meta的LaMa3就是70B的。我们在这个基础上再去进行调整，或者再去进行一些相应的训练吧。我们出到72B，或者七十几B这样的一个模型，效果其实已经很好了。加上RAG，就是本地知识库的这种辅助，加上长上下文，再加上多模态搜索的辅助，效果其实跟GPT-4之间，已经没有那么差了。对吧，GPT-4就是说你不加上这些东西，它也可以回答的很好啊。你如果是加上这些，搜索辅助啊什么的，70B基本上够使。</p>



<p>对于快速反应的这种低价模型来说，大家竞争的是什么？刚才咱们讲的是端侧模型啊。在云端模型其实也是分两拨的。一拨呢，就是大模型啊。大模型是，GPT啊，Gemini Pro这个，呃，Cloud Opus啊，这些就属于大模型啊，比较贵，性能比较高。那么大家都去推这种小模型，特别是另外两家。刚才预三家我们讲了啊，Open AI，谷歌和Anthropic。谷歌跟Anthropic都推了一种小模型，一个叫Gemini Flash，另外一个呢，叫做Cloud Haiku，叫这样的一个名字，都是相对比较小的，很便宜，反应速度很快。原来啊，GPT3，GPT是没有的，现在出来就是要去卷它们。大模型竞争。</p>



<p>咱们自己去比一比啊。这个小模型，你们出了，我也得出一个。所以，咱们回答开题的那个问题：“Open AI到底想卷死谁啊？”他想卷死的是Gemini 1.5、Flash和Cloud 3，嗨酷啊。是选这两个产品，但是要注意啊，Cloud 3.5现在已经出来了。但是3.5呢，只出了Sonit一个产品啊。它是分三个档次的，这种大模型啊。一个叫做High酷，是最小的，估计应该是10亿币以内，也就是7亿左右的一个模型。然后是Sonit啊，3.5已经到Sonit，它呢应该是在二三十亿币。但是都不是对外公开的啊。还有一个叫Opus啊，Opus是最大的，但是Opus到底有多大，可能是上百亿币的一个模型对吧。现在呢，3.5已经把中间这个模型出来了，上下两个还没出，估计呢应该本月会出。</p>



<p>所以在这个时候啊，Open AI说不行，我要把你这个底层的，这个给你封掉啊，让大家觉得啊，就算是用这种底层的小模型啊，这个也有一个更便宜的Open AI来用啊。这是他真正要去干的事情。那么对于开源模型来说的话啊，就是本地部署这个呢，Open AI应该不在这个赛道上啊。它有可能说，我用一些必源的模型，直接跟苹果，跟谁去合作，这个事可能是存在的。但是呢，他不会说我到GitHub上，到HuggingFace上，直接把这个GPT40 mini扔出来啊。应该不会干这个事情。</p>



<p>那么对于中国团队来说，到底有没有弯道超车的机会？这是一个值得探讨的问题。</p>



<p>这也是我们开题上的一个问题，对吧？“卷”就一个字，在这个字上呢，中国团队绝对是遥遥领先的。中国现在已经开始卷下一个层次了啊，在上一个层次里头，中国团队发现：哎，我只要把模型推到七十几，对吧，加上搜索辅助，加上reg，加上这个啊，长上下文，效果已经非常好了，对吧，不需要再往前推进了啊。真的效果非常好了吗？很多人说你是不是吹牛啊。他这个事是这么算，就是再有相差的这部分，个人感觉不出来，因为人的感受有时候很主观的啊。你不可能说：哎，我去招聘了，对吧，我一定要挑出最好的那一个来，不可能的。你一定是找了一个相对顺眼的，然后磨合了一段时间，发现：哎，这个工作还能干得下去，日子也能过得下去啊，也不讨厌，你就可能一直用这个人用下去。你不可能说：哎，旁边这个人，好像比我招的这小伙子，还要更厉害一点，对吧，我就马上把我这开了，把那个人招回来，不会干这个事了。在这样的一个情况下啊，我们只要用习惯了，慢慢的对于我们已经招聘进来的人，就会有更高的容忍度。为什么要讲招聘的故事呢？其实我们使用大模型的过程，跟招聘的过程差不多。在挑选的时候，我们一定是非常小心的，来去确定到底哪一个适合我们，我们的这个任务，它是不是可以很好的完成。一旦你把它挑进来了，下一件事是什么？就是我们要去跟他磨合，怎么能够跟这个大模型一起，把我们要做的事情做完。当大家互相习惯了以后的话，你不会说：哎，那个更好，我马上换人的。一个大模型，它是有很高的粘度的。</p>



<p>所以，中国团队在70亿参数这一块，基本上已经达到了一个阶段，我们可以说，我们已经能够吸引一部分用户，而且这部分用户愿意留下来，持续使用我们的产品。再往前推进，当你提到我现在发布的几千亿参数的模型，也就是几百亿参数的这类模型时，第一个问题在于训练上，我们可能还没有完全搞明白，应该如何应对这个挑战，因为目前开源出来的就是70亿参数的模型，再大的版本现在还没有开源，所以这件事情还搞不定。</p>



<p>那么再往上，你说我们闭着眼睛去研究一下行不行？也不行，为什么呢？因为越大的模型，你训练的成本就越高，而且越难去控制。在这种情况下，我们可以说，我们就停在这了。那么停在这，中国团队现在在干嘛呢？他们搞APP开发，搞各种接触用户的方式，我们现在要去获取所有用户，这是我们已经开始卷的东西，Open AI还没卷到这呢，我们其实已经开始弯道超车了。</p>



<p>你说Open AI不是也有APP吗？它有安卓APP，有iOS APP，甚至最近还开始出Mac APP。但是你要想清楚，中国人做的是什么呢？聊天、搜索、绘图、情感陪伴，都整合在了一个APP里头。而且，我们的APP是Windows、Mac、安卓、iOS全都有。你说Open AI自己为什么不做一个Windows APP？亲爹不让啊，谁是亲爹？微软。微软说这个事情打住，我在那边玩Copilot，你自己不要来找这个事情，你到Mac那边去玩耍就可以了。有什么问题，去霍霍苹果，不要来霍霍我，这个他就没法整。而在中国，你看看啊，豆包，所有的平台，都在积极地推进和用户接触的策略。</p>



<p>Windows、Mac、iOS、安卓，全都出齐了。而且，它还把所有的功能都集齐了。像Open AI做的Mac版的APP，只能干嘛呢？就是回答问题。也就是说，你可以听话，可以去语音识别，他就干这些事情就完事了。中国的就什么都可以干啊。你让他去唱歌跳舞，让他去画图，让他去做图像识别，包括各种的角色扮演，就是Carrot AI做的那些事情啊，咱们也都可以搞定。只要是外边有的，只有咱想不到，没有咱做不了的啊。这一块还是非常好用的啊。我现在用的量很大的就是豆包APP啊，非常好使。然后另外一块我们再卷的是什么呢？啊，Chrome的这个插件啊，就是在浏览器上做插件。因为现在的浏览器，基本上都是Chrome的内核啊，甭管是Chrome的啊，还是这个微软的Edge，底层都是Chrome啊。所以我们现在在上面做插件，甭管是Kimi还是豆包，都在上面卷插件。而且那个插件的功能，那全的是一塌糊涂。你一旦在浏览器上装了豆包插件了，然后你去用谷歌搜索豆包，就在侧边栏开始对搜索结果进行总结。你说哎我现在去看一下YouTube，马上旁边就开始给你做，我给你做个视频总结吧啊。甚至说你在这看YouTube的时候，他说我给你翻译个字幕吧。或者我随时在浏览器里头，选中一个单词，选中一句话，他说我帮你翻译一下吧。或者说你在浏览器里头有一个空格啊，或者叫有一个输入框，需要你输入信息的时候，他马上跳出来想输入点什么，我帮你润色一下。</p>



<p>要不要从上到下，事无巨细，只要他能粘手的地方，全都给你冲上来？说来，我在这呢，让我看点什么吧。或者说你现在浏览一个网页，说帮我总结一下。那这是人家的本行，干的甭提多好了。这一块，中国已经彻底卷风了啊。那你说美国人不做这种浏览器插件吗？也做，但是呢，美国人做都是小团队或者个人做。那你跟像豆包这种，可能后边有好几十人，上百人的团队，大家领着薪水，加着班，然后疯狂的往前卷。这事谁卷谁啊？对吧，你肯定卷不过他。现在在接触用户这角度上说，甭管是做APP，做浏览器插件，这啊，中国团队已经弯道超车了啊啊。</p>



<p>至于说Open AI，现在再去推出的GPT4 Omni，实际上它已经是在追赶其他人，但不是追赶我们啊。它在追赶的是谷歌的Gemini Flash和Anceropic的啊，CloudHi苦啊，在追赶这两个产品，希望把他们卷死。我们现在已经在另外一个层次上，在卷了，等他们把这仗打完了以后，发现哎，这个用户都已经被中国团队卷干净了啊。可能会出现这样的情况。</p>



<p>好啊，这个故事就跟大家今天讲到这里。感谢大家收听，请帮忙点赞，点小铃铛，参加Disco讨论群。也欢迎有兴趣，有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
