Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?已关闭评论

Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?

大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。

Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。

现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。

More

华为大模型演示翻车现场:time.sleep(6)真的值得大惊小怪吗?老程序员深度解析代码背后的真相!睡6秒不是什么大问题,不过图像RAG,到底是个什么坑?

华为大模型演示翻车现场:time.sleep(6)真的值得大惊小怪吗?老程序员深度解析代码背后的真相!睡6秒不是什么大问题,不过图像RAG,到底是个什么坑?已关闭评论

大家好,

欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲华为大模型演示翻车现场。

近期呢,非常多的AI相关的项目都在进行演示和发布,特别是国内。为什么它?因为时间到了。通常每年在这个时候也会有很多发布,因为每年在这个时候会开谷歌IO,大家喜欢在谷歌IO的前后进行信息的发布啊。因为谷歌IO算是全世界程序员或者开发者的一个盛会吧。那这个前后进行信息发布的话,如果它被安卓采用了,或者再跟谷歌搭上一点关系的这种技术会有更好的发展空间。

那今年呢,还有另外一个事情,就是拉玛3发布。前面其实国产很多大模型都是跟拉玛2有千丝万缕的联系。其实当时就已经预言过,我说拉玛3出来看多长时间之后,国内的大模型会争先恐后的再更新换代一波。现在呢,这个时间点就到了。前面阿里的通1,000问2.5发布,这两天还有几个,一个是零一万物的啊,叫e latch大模型发布,然后字节跳动的豆包大模型前两天也发布了啊。这豆包大模型主打的一个便宜,对别人的价格都便宜非常多,因为大模型的价格一般是按TOKEN算的啊,一般一个汉字是一个TOKEN,大概四个字母,还是几个字母的英文单词,是一个TOKEN啊,它这个算法比较奇怪。

More

Newer Entries