5 月 04
Luke FanAIGC Agent能力, AI agent开发, DeepSeek R1 对比, Gemini 2.5 Pro 对比, GitHub 开源, GPT-4o 对比, Grok 对比, Llama 4 对比, MCP协议支持, MOE模型 (混合专家模型), Ollama, Open Router, PC端应用, Qwen3, XAI 对比, 上下文窗口 (128K/256K), 专业数据, 云部署, 人工智能 (AI), 代码生成, 优缺点, 全系列模型 (0.6B-235B), 划时代的胜利 vs 翻车, 千问3, 原生数据, 参数效率, 合成数据, 后训练, 商业应用, 多场景适配, 多语言支持 (119种), 大语言模型 (LLM), 工具调用, 幻觉问题, 开源模型, 强化学习 (RLHF), 微调 (Fine-tuning), 性能分析, 性能评测, 技术创新, 指令遵循, 数学推理, 数据来源, 本地部署, 模型使用, 模型发布, 模型对齐, 混合推理架构, 用户体验, 田忌赛马策略, 真实感受, 硅基流动, 移动端应用, 稠密模型, 评测数据, 逻辑推理, 长思维链, 阿里云百炼, 阿里大模型, 预训练 (36T数据)
Qwen3发布了。这到底是划时代的胜利,还是翻车了呢?
大家好,欢迎收听老范讲故事的YouTube频道。Qwen3真的是千呼万唤始出来。前面好几周就已经不断有传言说Qwen3要发布,要多么多么强大。突然发布之后,当然也肯定是伴随着一大堆的评测数据了。官方评测数据呢,永远是我超越了谁、超越了谁。但是很多评测的人呢,觉得好像差那么一点点意思,没有达到预期。所以今天我们来讨论一下,这到底是又一次划时代的胜利,还是翻车。
Qwen3呢是凌晨发布的,4月29日凌晨上线,在Github上全面开放。我呢已经开始用上了。使用的方法有几种:
第一种是本地部署。我是MacBook Pro,M2 Max的芯片,32G内存。其他的不重要,你到底有多少硬盘,这个事没有那么重要。本地使用OlAmA部署,我使用了8B、32B和30B-A3B。最后这个是什么意思?最后是一个MOE的模型,它是30B-A3B,就是说它每一次干活的时候激活3B,也就是30亿参数。它是这样的一个标注。就这三个版本的模型,在我本机都可以跑,速度呢都是还可以接受。
More
4 月 24
Luke FanAIGC, 字节跳动,故事多 AI Agent, AI应用, AI竞争格局, Anno 1800, Anthropic, API接口, Baidu, ByteDance, Claude 3.5, Coze Space, Coze Space评测, DeepSeek R1, Gemini 2.5 Pro, Google, GPT-4o, Llama 4, LLM, Manus, MCP (模型控制插件/标准), Meta, OpenAI, PPT生成, Token消耗, Waiting List, 产品体验, 产品对比 (Coze vs Manus vs Grok vs XinXiang), 产品评测, 代码生成, 任务拆解, 优劣势分析, 免费试用, 内容生成, 功能演示, 可视化网页生成, 呼伦贝尔自驾, 复杂任务处理, 大语言模型, 字节跳动, 工具调用 (内部/外部), 市场调研, 心想APP, 扣子空间, 扣子空间使用, 搜索质量, 数据调用, 文档生成, 旅游攻略, 智能体, 游戏攻略, 现象级产品, 用户分析, 用户反馈, 电动车充电, 百度, 简历筛选, 自动化, 自我规划, 行程规划, 表格生成, 访谈记录整理, 豆包大模型, 通义千问, 邀请码, 阿里, 高德地图, 黑神话悟空
Manus的后劲来了。百度、字节都有了自己的agent产品上线。
大家好,欢迎收听老范讲故事的音乐节目频道。字节上线了扣子空间,百度上线了心想APP。Manus的光环不再。Manus本身就属于意外爆火,当时它突然火了以后,咱们还做了直播,说这个东西没有什么技术门槛,只是产品设计的很有意思。
Manus跑去跟阿里合作了之后,那字节、百度说这不行,咱们也得有自己的产品上线。又不是有多难做的东西,那就做呗。我呢,搞了一个字节扣子空间的邀请码,咱们呢试一试,看看这个产品到底怎么个用法儿。
Manus呢,到现在我也没用上。原因也很简单,我去申请测试,等了很久,到现在都已经开始收费了,也没有收到说你可以来玩一下的这个邀请。所以也就别费劲了。我自己呢也没有特别着急,我要特别着急想用的话,随便找两个人去要一些邀请码,也还是可以搞得定的。既然没有那么热心的话,也就没有上心去找嘛。
More
8 月 12
Luke FanAIGC AI工具, AI绘图, AI课程, API Key, API调用, Claude 3.5 Sonnet, Claude 3.5 Sonnet配置, Curl调用, DALL.E-3, Dify, Dify安装, FLUX.1, FLUX.1效果, GPT-4o MINI, MidJourney, OpenAPI Swagger, Restful代码, Stability, stable diffusion, Swagger规范, 云端工具, 云端模型, 付费频道, 代码生成, 使用体验, 使用实例, 使用流程, 免费使用FLUX.1, 免费画图, 免费课程, 免费账号, 免费资源, 创意生成, 参数设定, 图像处理, 图像尺寸, 图像效果, 图像步数, 图像生成, 图形应用, 图片生成示例, 图赏效果, 工具创建, 应用场景, 拟人狗图像, 提示词优化, 提示词生成, 教程分享, 教程步骤, 教程解说, 文本文档, 文档调用, 文生图模型, 新手指南, 生成模型, 硅基流动, 程序测试, 程序设计, 自定义工具, 自定义聊天应用, 详细教程, 运行成功, 配置Dify, 配置指南, 高效图像生成, 高质量图像生成
今天讲一下如何在Dify里面调用最新的文生图模型FLUX.1。FLUX.1是由Stability,也就是做Stable Diffusion的那家公司的一帮创始元老离职后做的新的文生图模型。现在据说效果非常好,我自己试了一下,确实还可以。那么今天跟大家演示一下如何在Dify里边去使用这个FLUX.1模型。
首先,我们要去找一个云端可以跑的FLUX.1模型。你说我直接到FLUX网站上去行不行?没问题啊,但是他们的这个要付费,特别是FLUX Pro是要付费的。我们先找一个免费的,先跑起来吧,特别是在国内能用的这种免费的,先让它跑起来。我们找到了硅基流动这样的一个网站。我们看一下它这个网站长什么样子。这样前面其实跟大家介绍过硅基流动这个项目,先登录进去。
More