7 月 07
Luke FanAIGC, 华为很厉害 AI伦理, AI大模型, AI抄袭, Apache 2.0, GitHub事件, honest AGI, Hugging Face, Llama 3.1, LLaMA-fingerprint, LLM, Meta, OpenAI, POWERED by盘古, PyTorch, 人工智能, 企业公关危机, 华为, 品牌形象, 增量训练, 大模型套壳, 大模型抄袭, 大模型指纹算法, 大语言模型, 字节跳动, 开源, 开源争议, 开源协议, 开源文化, 归属声明, 抄袭指控, 昇腾芯片, 模型相似度, 欧盟禁用条款, 民族主义情绪, 注意力机制, 混合专家模型(MOE), 版权声明, 瓜田李下, 盘古大模型, 盘古开源协议, 科技伦理, 科技公司纠纷, 科技评论, 老范讲故事, 自主研发, 舆论战, 英伟达芯片, 观点分析, 许可证, 豆包, 辟谣, 通义千问, 遥遥领先, 闭源, 阿里巴巴
华为开源了盘古大模型,被指抄袭。华为到底冤不冤呢?
大家好,欢迎收听老范讲故事的YouTube频道。华为开源了他的盘古大模型,它的模型呢,反正依然是山海经风格的起名。原来呢,没有开源,都是说我们内部开发内部使用,或者说我们专门供政府和大企业来使用。但是现在发现开源这条路不错,那我也开源吧。结果开源了以后就出事了。
它是6月30号在GitHub上就直接开源了,号称呢是在升腾芯片上训练出来的大模型。以前呢,我们的大模型大多是在英伟达芯片上训练,但是呢可以在升腾的芯片上去做推理。现在说,我直接在升腾芯片上做训练,也算是一种小的突破吧。
他呢,其实发了两个模型:一个是72B的MOE的模型,就是混合专家模型;然后呢,有一个70B的稠密模型。做呢做完了,但是准备开源还需要准备一段时间。开源这件事,不是说你做完了,把它扔出来就完了,还是有很大的工作量需要干的。比如说你要去写开源手册、许可证,这个还不是那么容易,还在做。
More
7 月 01
Luke FanDeepSeek大模型 “墙”反着修, AI, AI伦理, AI禁令, API, ChatGPT, Coze, DeepSeek, DeepSeek封禁, LLM, Minimax, OpenAI, TikTok, YouTube, 中国, 中美科技竞争, 人工智能, 人工智能监管, 信息安全, 全境封锁, 加拿大, 千问, 印度, 可灵, 合规, 国际关系, 大语言模型, 字节跳动, 应用商店下架, 开源模型, 德国, 德国禁用DeepSeek, 快手, 意大利, 技术封锁, 政府禁令, 政府设备禁用, 数据主权, 数据出境, 数据安全, 数据本地化, 数据渗透, 数据隔离, 智谱AI, 欧盟, 澳大利亚, 科技战, 科技评论, 网络安全, 美国, 美国实体清单, 老范讲故事, 苹果, 谷歌, 通义, 防火墙, 阿里巴巴, 隐私保护, 韩国
德国全境禁用DeepSeek,以后这墙要反着修了吗?
大家好,欢迎收听老范讲故事的YouTube频道。2025年6月27日,德国数据保护专员梅克坎普宣布,已经要求苹果和谷歌从德国应用商店下架DeepSeek应用程序了。德国不是第一个,估计应该也不是最后一个。第一个是谁?意大利。意大利在每一次反对AI这件事情上,都是占第一个。原来他还反过OpenAI的ChatGPT。2025年初,也就是R1刚出来的时候,就直接给封了。
欧盟的其他国家现在是一个什么状态呢?他们比较纠结。荷兰是禁止政府手机安装DeepSeek的APP;比利时是建议公务员的手机不要安装,但是不强制;西班牙是有消费者权益组织在呼吁,政府到目前为止没有采取任何的措施;英国表示说他们在持续的监测,目前还没有做出反应。
其他的一些国家对DeepSeek是什么样的一个态度呢?加拿大所有的政府设备禁止使用DeepSeek;丹麦政府设备禁止使用,但是丹麦有5个大区里头,只有3个在执行,剩下两个还在看。
More
5 月 26
Luke FanAIGC 65亿美金收购, AI, AI iPhone, AI Pin, AI伴侣, AI助手, AI手机, AI硬件收购, AI设备, AI趋势, Apple, ChatGPT, GPT-5, HCI, IO团队, Jony Ive, LLM, Love From, M&A, OpenAI, Sam Altman, Scaling law, UX, YouTube, 乔布斯, 交互革命, 产品设计, 人工智能, 人机交互, 企业估值, 可穿戴AI, 多模态AI, 大语言模型, 孙正义, 山姆奥特曼, 工业设计, 强尼艾夫, 微软, 情绪感知, 手势识别, 播客, 无屏交互, 智能硬件, 未来科技, 用户体验, 硬件创新, 科技创业, 科技并购, 科技行业分析, 科技评论, 移动互联网, 纯股票交易, 老范讲故事, 自然交互, 苹果公司, 语音交互, 软银, 风险投资
OpenAI以65亿美金收购了强尼艾夫爵士的IO团队,要做AI iPhone了吗?大家好,欢迎收听老范讲故事的YouTube频道。
OpenAI最大的硬件收购来了。没办法,他自己3,000亿美金的估值了,现在收购任何的团队都是比较贵的,所以又变成了有史以来最大的AI硬件团队收购。这一次呢,是以50亿美金的纯股票交易收购强尼艾夫创建的IO团队手里边77%的股票。
这个团队呢,2023年底其实已经被OpenAI投资过了。当时投资了以后占股了是23%。这一次呢,等于是交50亿美金,或者叫以50亿美金的对价收购了剩余的77%的股票。这个65亿美金怎么算出来的?很简单,50亿除0.77就等于65了。所以它的总价值呢,是按照50亿美金收购77%股票的方式反推出来的。
More
5 月 09
Luke FanAIGC, Google的故事 A2A协议, AI Agent, AI协作标准, API设计, Function Calling, Gemini, Google AI, HTTP, JSON, LLM, Lotus Domino, MCP模型上下文协议, OpenAI, SharePoint, SOA (服务导向架构), SSE, YouTube频道, 人工智能, 历史失败案例, 复杂系统风险, 大语言模型, 屎山代码, 开发者视角, 异构系统集成, 异步处理, 微服务, 技术史借鉴, 技术演进规律, 技术评论, 技术选型, 智能体互操作, 智能体协作, 看起来很美就不要想得太美了, 科技趋势解读, 程序员经验, 系统设计, 老范讲故事, 谨慎评估, 谷歌A2A, 跨平台协作, 软件架构, 顶层设计批判
谷歌的A2A看起来很美,就不要想得太美了。
大家好,欢迎收听老范讲故事的YouTube频道。
“看起来很美,就不要想得太美了。”这句话哪来的呢?来自于猫腻的小说《将夜》。这个里面有一句话叫:“你长得很美,所以就不要想得太美了。”事情是在哪呢?是在隆庆皇子看到桑桑酒量很好,就想收其为侍女。桑桑呢,是里面的一位女主,而隆庆皇子呢,长得很漂亮,而且身份地位非常高,手持大义的一个人。他提出了这样的一个要求,当时的主人公宁缺就进行了反击,说:“你长得很美,就不要想得太美了。”意思是什么呢?就是保持对现实的清醒认知,你要知道自己是谁,几斤几两。而且呢,也要敢于对强权逻辑进行挑战。
那么,这个事儿跟今天咱们要讲的谷歌A2A有什么样的关系呢?首先先讲一下,谷歌A2A到底是个什么东西。
More
4 月 24
Luke FanAIGC, 字节跳动,故事多 AI Agent, AI应用, AI竞争格局, Anno 1800, Anthropic, API接口, Baidu, ByteDance, Claude 3.5, Coze Space, Coze Space评测, DeepSeek R1, Gemini 2.5 Pro, Google, GPT-4o, Llama 4, LLM, Manus, MCP (模型控制插件/标准), Meta, OpenAI, PPT生成, Token消耗, Waiting List, 产品体验, 产品对比 (Coze vs Manus vs Grok vs XinXiang), 产品评测, 代码生成, 任务拆解, 优劣势分析, 免费试用, 内容生成, 功能演示, 可视化网页生成, 呼伦贝尔自驾, 复杂任务处理, 大语言模型, 字节跳动, 工具调用 (内部/外部), 市场调研, 心想APP, 扣子空间, 扣子空间使用, 搜索质量, 数据调用, 文档生成, 旅游攻略, 智能体, 游戏攻略, 现象级产品, 用户分析, 用户反馈, 电动车充电, 百度, 简历筛选, 自动化, 自我规划, 行程规划, 表格生成, 访谈记录整理, 豆包大模型, 通义千问, 邀请码, 阿里, 高德地图, 黑神话悟空
Manus的后劲来了。百度、字节都有了自己的agent产品上线。
大家好,欢迎收听老范讲故事的音乐节目频道。字节上线了扣子空间,百度上线了心想APP。Manus的光环不再。Manus本身就属于意外爆火,当时它突然火了以后,咱们还做了直播,说这个东西没有什么技术门槛,只是产品设计的很有意思。
Manus跑去跟阿里合作了之后,那字节、百度说这不行,咱们也得有自己的产品上线。又不是有多难做的东西,那就做呗。我呢,搞了一个字节扣子空间的邀请码,咱们呢试一试,看看这个产品到底怎么个用法儿。
Manus呢,到现在我也没用上。原因也很简单,我去申请测试,等了很久,到现在都已经开始收费了,也没有收到说你可以来玩一下的这个邀请。所以也就别费劲了。我自己呢也没有特别着急,我要特别着急想用的话,随便找两个人去要一些邀请码,也还是可以搞得定的。既然没有那么热心的话,也就没有上心去找嘛。
More
4 月 16
Luke FanAIGC 100万Token上下文, AI Agent, AI agent开发, AIGC, AI工具更新, AI市场竞争, AI成本优化, AI技术更新, AI模型对比, API发布, API调用, B端市场, Claude 3.5, Claude 3.7, C端用户, DeepSeek R1, Deepseek V3, Gemini 2.0, Gemini Pro 2.5, GPT-4.1, GPT-4.1评测, Grok 3 mini, LLM, MidJourney, OpenAI, OpenAI战略, RAG (检索增强生成), Sora, 人工智能, 价格便宜, 低成本AI, 可控性强, 多模态AI, 多版本 (Standard/Mini/Nano), 大海捞针测试, 大语言模型, 实时AI (Realtime AI), 工程应用, 工程需求, 开发者API, 开发者福音, 开源模型, 技术发展趋势, 技术解读, 技术选型, 指令遵循度高, 推理能力, 模型评测, 牛马工具 (程序员自嘲), 程序员工具, 稳定性好, 编程能力提升, 观点分享, 视频理解能力, 速度快, 长上下文处理, 高性价比, 高效AI模型
GPT4.1发布了!牛马们的好工具终于上线了。大家好,欢迎收听老范讲故事的YouTube频道。
GPT4.1突然发布,这是程序员们的工具。普通的用户你是用不上的。你用网页版,你用APP,甭管是手机端的还是电脑端的,你是付费用户还是免费用户,你都用不到GPT4.1。只有程序员可以通过API调用GPT4.1。
但是这个事儿对于非程序员来说,也是有很大改变,很大帮助的。那么我们今天来讲一讲,GPT4.1到底是一个什么样的东西。
首先,它有100万TOKEN的上下文,这个是非常吓人。100万单词吧,基本上你可以直接塞到GPT4.1里头去,它统一给你处理。而且大海捞针做的也很不错。
More
4 月 09
Luke FanAIGC, Meta的故事 AI伦理, AI生成, AI评测, AI负责人辟谣, Benchmark作弊, DLIU DLIU, Llama 4, LLM, Meta, Meta AI, Meta回应, 人工智能, 作弊指控, 内部爆料, 基准测试, 大语言模型, 学术不端, 实际使用效果, 开源模型, 开源社区, 快速发布后果, 性能评估, 技术报告缺失, 数据污染, 模型蒸馏, 沃顿商学院教授, 测试集污染 (背真题), 版本不一致 (开源vs测试), 科技争议, 科技新闻, 稳定性问题, 编程能力差, 自然语言处理, 跑分作弊, 过度优化, 验证方法
Meta的Llama4发布之后,深陷作弊风潮。大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲Meta的Llama4被人怀疑作弊,他到底是不是真的作弊了。
前面我们做过一期视频,说Llama4发布的时候没有太大的响动,因为它出来以后发现,虽然评测还不错,但是使用起来并没有感觉比现在主流的模型强到哪去。现在不行了,负面消息传出来了,说你大模型出来的时候跑分的成绩很高,但是我们使起来不是这么回事,有点名不副实的样子,特别是编程的效果极差。
为什么大家去比较编程呢?两个原因:
第一个,去玩这些开源大模型的,一般都是程序员。
第二个,编程是一个相对来说标准比较统一的评测。你编得出来编不出来,编完了效果怎么样,这个一眼就能看出来,没法作假。你说我写个诗或者写个小说,这个玩意还有仁者见仁、智者见智的时候。这编程这个东西,对就是对,不对就是不对,或者你做完了以后它的效果有问题,一眼就能看出来。所以现在被人质疑了。
More
4 月 07
Luke FanAIGC 1000万Token上下文, 400B, AI Agent, AI应用场景, AI新闻, AI未来发展, AI模型发布, AI竞赛, AI算力, Claude 3.7, DeepSeek, FP8精度, Function Call, Gemini 2.5 Pro, GPT-4o, Grok (XAI), H100 GPU, INT4量化, Llama 3, Llama 4, Llama 4 Behemoth, Llama 4 MARVELIC, Llama 4 Scout, Llama 4发布反响平淡原因, LLM, Meta AI, Meta战略, Mixture of Experts, MOE架构, 专家模块, 中文能力提升, 人工智能, 全模态AI进展, 千问 (Qwen), 卡估值, 多模态输入, 大语言模型, 字节AI, 小模型竞争, 开源LLM对比, 开源模型, 开源模型内卷, 开源社区, 推理速度, 文本输出, 模型微调, 模型性能比较, 模型测评, 模型训练, 活跃参数, 流量入口, 知识蒸馏, 硬件要求, 端到端模型, 腾讯AI, 谷歌AI, 超级APP趋势, 长上下文, 阿里AI
Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?
大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。
Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。
现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。
More
5 月 17
Luke FanAIGC, 华为很厉害 AI, Bolan, bug, contranite, DOS攻击, e latch, HUAWEI, image list, in bedding, inviting, LLM, MindSpore, MindX, Python, RAG, Retry, rpm限制, sleep 6, stable diffusion, stream输出, time.sleep, YouTube, 人工智能, 代码, 企业用户, 升腾大模型, 华为, 华为大模型, 史量化, 后台进程, 图像生成, 图片 RAG, 大模型, 字节跳动, 安卓, 客观中立, 嵌入, 拉玛, 拉玛3, 提示搜工程, 提示词, 政府用户, 昇腾, 欺骗, 流式输出, 游戏, 演示, 状态监控, 电商, 真相, 矢量空间, 翻车, 老范, 老范讲故事, 职业编程, 萝卜急了不稀泥, 解读, 谷歌, 谷歌IO, 豆包, 通义千问, 锁定状态, 零一万物, 骑士
大家好,
欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲华为大模型演示翻车现场。
近期呢,非常多的AI相关的项目都在进行演示和发布,特别是国内。为什么它?因为时间到了。通常每年在这个时候也会有很多发布,因为每年在这个时候会开谷歌IO,大家喜欢在谷歌IO的前后进行信息的发布啊。因为谷歌IO算是全世界程序员或者开发者的一个盛会吧。那这个前后进行信息发布的话,如果它被安卓采用了,或者再跟谷歌搭上一点关系的这种技术会有更好的发展空间。
那今年呢,还有另外一个事情,就是拉玛3发布。前面其实国产很多大模型都是跟拉玛2有千丝万缕的联系。其实当时就已经预言过,我说拉玛3出来看多长时间之后,国内的大模型会争先恐后的再更新换代一波。现在呢,这个时间点就到了。前面阿里的通1,000问2.5发布,这两天还有几个,一个是零一万物的啊,叫e latch大模型发布,然后字节跳动的豆包大模型前两天也发布了啊。这豆包大模型主打的一个便宜,对别人的价格都便宜非常多,因为大模型的价格一般是按TOKEN算的啊,一般一个汉字是一个TOKEN,大概四个字母,还是几个字母的英文单词,是一个TOKEN啊,它这个算法比较奇怪。
More