10 月 21
Luke FanAIGC Agent Skills, AI Agents, AI工具, AI新标准, AI能力拓展, AI行业标准, Anthropic, Claude, Claude Code, Claude Skills, Excel处理, Function Call, Gemini, MCP, OpenAI, PPT制作, Word处理, 上下文工程, 企业级AI, 低代码AI, 大模型, 大模型应用, 技能固化, 技能重用, 提示词工程, 文档格式化, 格式化文档, 模型能力拓展, 自动化工作流, 自定义AI, 非程序员AI
Anthropic Claude出了新工具,叫skills技能。这是不是MCP的升级版本呢?
大家好,欢迎收听老范讲故事的YouTube频道,咱们又有新玩具了。这一次,Anthropic出了一个东西,叫skills技能。它呢,应该是大模型功能拓展标准的一个新尝试。
大模型除了可以一本正经地胡说八道之外呢,你还需要去做一些技能拓展。比如说,你可以去写PPT,可以去做Excel,skills就主要干这玩意儿使的。这也算是AI agent以及上下文工程有可能会迎来的一个新标准,甚至呢,在部分功能上已经取代了MCP的功能。待会儿咱们再讲哪一部分可以取代MCP了。
到底什么是skills呢?它呢,是直接给Claude去赋能,让Claude code去做一些琐碎的工作。我举一个例子吧,比如说一个律所,你律所里头需要干一个什么事?就是你们出的所有的这个文件,它是有排版要求的。哪个地方用几号字,哪个地方用几号字,什么地方要用什么样的方式来表述,这个都是有要求的。以前我们律师给写的文件,大概每一个文章倒数第二段的时候,要写一个“以及”还是什么,反正有一个特别奇怪的要求。我第一次看到,我说:“你们为什么写这个?”他说:“律所要求就是必须这么写。”包括哪个标题需要使用什么字号、什么字体、字间距、行间距,他们都有要求。
More
8 月 18
Luke FanAIGC, 华为很厉害, 英伟达,NVIDIA,黄教主,GPU AI Agent, AI芯片, AI训练, AMD, Anthropic, B100, Claude 4, CUDA, DeepSeek, Deepseek R2, Function Call, Gemini, Google, GPT-5, Grok 4, H100, H20, H800, Kimi, Llama 4, Meta, NVIDIA, OpenAI, TPU, XAI, 中美科技战, 人工智能, 传闻, 千问, 升腾910C, 华为, 华为升腾, 国产替代, 国产芯片, 大模型, 大模型训练, 字节跳动, 开源, 技术瓶颈, 推理, 散热问题, 浸没式液冷, 液冷, 深度求索, 百度, 算力, 腾讯, 芯片战争, 英伟达, 辟谣, 金融时报报道, 难产
8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。
虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。
国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。
More
4 月 07
Luke FanAIGC 1000万Token上下文, 400B, AI Agent, AI应用场景, AI新闻, AI未来发展, AI模型发布, AI竞赛, AI算力, Claude 3.7, DeepSeek, FP8精度, Function Call, Gemini 2.5 Pro, GPT-4o, Grok (XAI), H100 GPU, INT4量化, Llama 3, Llama 4, Llama 4 Behemoth, Llama 4 MARVELIC, Llama 4 Scout, Llama 4发布反响平淡原因, LLM, Meta AI, Meta战略, Mixture of Experts, MOE架构, 专家模块, 中文能力提升, 人工智能, 全模态AI进展, 千问 (Qwen), 卡估值, 多模态输入, 大语言模型, 字节AI, 小模型竞争, 开源LLM对比, 开源模型, 开源模型内卷, 开源社区, 推理速度, 文本输出, 模型微调, 模型性能比较, 模型测评, 模型训练, 活跃参数, 流量入口, 知识蒸馏, 硬件要求, 端到端模型, 腾讯AI, 谷歌AI, 超级APP趋势, 长上下文, 阿里AI
Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?
大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。
Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。
现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。
More