继Model Context Protocol后,AI下一个新标准已现雏形?Anthropic凭“简单、开放、中立”三原则再次领先|Claude Skills、Anthropic、OpenAI

继Model Context Protocol后,AI下一个新标准已现雏形?Anthropic凭“简单、开放、中立”三原则再次领先|Claude Skills、Anthropic、OpenAI已关闭评论

Anthropic Claude出了新工具,叫skills技能。这是不是MCP的升级版本呢?

大家好,欢迎收听老范讲故事的YouTube频道,咱们又有新玩具了。这一次,Anthropic出了一个东西,叫skills技能。它呢,应该是大模型功能拓展标准的一个新尝试。

大模型除了可以一本正经地胡说八道之外呢,你还需要去做一些技能拓展。比如说,你可以去写PPT,可以去做Excel,skills就主要干这玩意儿使的。这也算是AI agent以及上下文工程有可能会迎来的一个新标准,甚至呢,在部分功能上已经取代了MCP的功能。待会儿咱们再讲哪一部分可以取代MCP了。

到底什么是skills呢?它呢,是直接给Claude去赋能,让Claude code去做一些琐碎的工作。我举一个例子吧,比如说一个律所,你律所里头需要干一个什么事?就是你们出的所有的这个文件,它是有排版要求的。哪个地方用几号字,哪个地方用几号字,什么地方要用什么样的方式来表述,这个都是有要求的。以前我们律师给写的文件,大概每一个文章倒数第二段的时候,要写一个“以及”还是什么,反正有一个特别奇怪的要求。我第一次看到,我说:“你们为什么写这个?”他说:“律所要求就是必须这么写。”包括哪个标题需要使用什么字号、什么字体、字间距、行间距,他们都有要求。

More

DeepSeek R2难产真相!金融时报爆料:华为昇腾芯片训练失败,揭秘国产AI算力的“卡脖子”困境。

DeepSeek R2难产真相!金融时报爆料:华为昇腾芯片训练失败,揭秘国产AI算力的“卡脖子”困境。已关闭评论

8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。

虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。

国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。

More

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?已关闭评论

Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?

大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。

Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。

现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。

More