GPT-3与O4 mini不再高冷:融合工具调用、记忆与超强图像推理,普通人也能高效应用AI,一文看懂成本、限制与Copilot捷径

GPT-3与O4 mini不再高冷:融合工具调用、记忆与超强图像推理,普通人也能高效应用AI,一文看懂成本、限制与Copilot捷径已关闭评论

GPT-3和O4 mini发布了,这次绝不再仅仅是科学家们的玩具了。大家好,欢迎收听老范讲故事的YouTube频道。

本来GPT-3和O4 mini发布呢,我并没有抱太大的期望。为什么呢?因为前面O1和O3 mini发布的时候呢,看得我头晕眼花的。我记得应该是在去年12天连续发布会的时候发布的O3 mini,实在是太不明觉厉了。各种的复杂科学问题,咔咔就给解决了,然后各种的排名都排得很高。但是呢,我自己其实并不怎么用。

为什么呢?第一个,ChatGPT Plus用户里边呢,它是有用量限制的,并不是随便让你用的。所以在有用量限制的情况下,你就得省着用,而且你也感觉不出有太大差异来。你说你用它干嘛?据说编程很强,但是它没法跟IDE结合,基本上也就放弃了。你是可以出一大堆的代码,但是你还得向IDE里边去考来考去的,很麻烦。那你说我通过API调用吧,直接使用O1和O3 mini这些模型,实在是贵,所以就放弃了。

More

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?

Llama 4悄然发布震撼不足?对比DeepSeek与千问,Meta的MOE架构和千万级上下文能否挽回开源领导地位,避免被超级APP浪潮抛弃?已关闭评论

Llama4发布了。这里的黎明静悄悄,没有什么响动。这是怎么回事?

大家好,欢迎收听老范讲故事的YouTube频道。一觉醒来,Llama4就发布了。扎克伯格亲自在Facebook的REELS(也就是Facebook的短视频里面)发了一条视频,说Llama4发布了,今天是Llama4日。

Llama4呢,一共是有三个版本:
第一个叫Scout(侦察兵版本),总参数1,090亿(也就是109B),活跃参数是170亿,包含16个专家模块。对的,Llama终于也放弃抵抗了,从Llama4开始变成Moe了。在Llama4之前的版本都是单一体的模型,Llama3.3还给了一个400多B的单一模型,到Llama4彻底放弃抵抗了。

现在呢,支持1,000万TOKEN这种上下文,这个是Llama4最大的一个特点。DeepSeek是64K(也就是64,000个TOKEN上下文),现在上下文比较大的Gemini大概是能到2兆(200万),Llama4直接给了一个10兆(1,000万TOKEN),这是它做的一个很创新的点。

More