AI炒币一周战报:DeepSeek凭低频策略狂赚36%,GPT-5惨亏28%,Gemini更是亏掉30%!|Alpha Arena、AI trading、LLM、Crypto trading

AI炒币一周战报:DeepSeek凭低频策略狂赚36%,GPT-5惨亏28%,Gemini更是亏掉30%!|Alpha Arena、AI trading、LLM、Crypto trading已关闭评论

在炒币这件事上,DeepSeek完胜GPT和Gemini。

大家好,欢迎收听老范讲故事的YouTube频道

最近有一件事闹得沸沸扬扬,也就是Alpha竞技场。有一个叫NOFE.AI的实验组织,他们组织了一场由大模型炒币的一个实验。这个实验室的组织者呢,是纽约大学机器学习领域的一位博士候选人,应该算是一个学术组织,并不是一个炒币的机构。他呢,想要让大模型使用真金白银,直接在币市里边去进行竞技,而不是去做什么模拟题,做各种什么模拟盘,直接真金白银开干。

比赛呢,是从10月17日开始,每一个大模型给1万美金的启动资金,到现在呢,胜负已经非常明显了。DeepSeek V3.1完胜,他挣的钱最多。Grok-4紧随其后,也是盈利的。盈利的曲线呢,跟DeepSeek V3.1很像,但是这里呢,并不是因为Grok-4抄了V3.1,或者在DeepSeek的基础上去训练出来的,而是什么呢?就是你市场本身是有一个波动曲线的,他们只要采用相近的策略,他们盈亏的曲线就会比较接近。

再往后呢,是Claude sonnet 4.5,它表现得呢要稍微差一些,但也是盈利的。Qwen3 MAX也参加了,稍微地赚了一点点,大概是挣了几百美金吧,基本没赔。有一个对照组,对照组是什么呢?就是买入比特币直接持有,因为你总要跟市场的大势去进行比较嘛。这个组呢,是挣得要更少一些,大概挣了300多美金。Qwen3 MAX大概挣了700多美金,所以Qwen3 MAX还是跑赢了持币观望组的。

More

GPT 5 Codex,普通人的技术平权里程碑!程序员神话被戳破?当AI能可靠执行7小时复杂任务,普通人与专家的差距还剩多少?|揭秘 Codex、OpenAI、GPT-5、GPT-5-Codex

GPT 5 Codex,普通人的技术平权里程碑!程序员神话被戳破?当AI能可靠执行7小时复杂任务,普通人与专家的差距还剩多少?|揭秘 Codex、OpenAI、GPT-5、GPT-5-Codex已关闭评论

GPT-5-Codex的发布,普通人通往技术平权之路的又一个里程碑。

大家好,欢迎收听老范讲故事的YouTube频道

记得上次在天津做线下活动的时候呢,有一位程序员问我说:“我们这些普通人,应该如何应对AI大潮呢?因为现在很多程序员被AI淘汰失业嘛。”我想了一下告诉他说:“你要想清楚一个问题,在AI大潮面前,我们不是普通人,我们是程序员。那些不会写程序的人,才是普通人呐。”

所以,咱们今天要讨论的就是,那些不会写程序的普通人,在GPT-5-Codex的帮助下,怎么能够像我们这些会写程序的人一样,去遨游于代码的海洋之中,知道代码到底在干什么,为什么这么设计,哪里做错了。这个是真正给了他们一个能用的工具。

OpenAI呢,趁着Anthropic屏蔽了程序员的主体族群(也就是咱们中国人的时候),适时地召开了发布会,发布了GPT-5-Codex。大家要注意,它这个名字起得稍微有些混淆。GPT-5呢,是一个大模型;Codex呢,是OpenAI发布的一个编程的agent;GPT-5-Codex呢,是一个在GPT-5的基础上,专门训练的一个用于Codex这个编程AI agent的一个专有模型。它稍微有点绕,就是GPT-5-Codex是一个模型,不是一个简单的agent。

More

OpenAI公开了GPT5降低幻觉的秘密,像教育孩子一样训练AI。宁愿答“不知道”也绝不瞎猜,这才是真正的进步|GPT-5 AI Hallucination OpenAI Hallucinations

OpenAI公开了GPT5降低幻觉的秘密,像教育孩子一样训练AI。宁愿答“不知道”也绝不瞎猜,这才是真正的进步|GPT-5 AI Hallucination OpenAI Hallucinations已关闭评论

GPT5降低幻觉的秘密被OpenAI给公开了。现在看来,训练AI真的是越来越像训练小孩子了。

大家好,欢迎收听老范讲故事的YouTube频道

九月五号真的是一个神奇的日子,非常多的模型都在九月五号被发布出来。OpenAI在这一天也发表了一篇论文,这个论文叫做《为什么语言模型会产生幻觉》。

大语言模型从进入我们的日常生活那一天开始,我们就发现了,这个东西最擅长干的事情是什么?叫“一本正经的胡说八道”。

现在OpenAI公布了,说产生幻觉有两个主要原因。

第一个原因叫做“错误的评估体系”。什么意思呢?就是我们现在去考试了,做对了1分,做错了0分,不做也是0分。其实我们所参加的绝大部分的考试,都是这样去设计的,甭管你是考英语、考数学,都是这样设计。像考数学这种,他还有步骤分,哪怕最后你的结果没有,或者结果是错误的,你只要前面的步骤写对了几步,他都是给你分的。

More

DeepSeek R2难产真相!金融时报爆料:华为昇腾芯片训练失败,揭秘国产AI算力的“卡脖子”困境。

DeepSeek R2难产真相!金融时报爆料:华为昇腾芯片训练失败,揭秘国产AI算力的“卡脖子”困境。已关闭评论

8月14号,英国金融时报发了一篇报道,说Deepseek R2模型之所以难产,是因为在使用华为升腾芯片训练的时候,持续遇到了技术问题,最后被迫改用了英伟达芯片。甚至透露华为曾经派出一支救火队,常驻在Deepseek,手把手帮忙调教升腾服务器,但仍然无法完成训练。无奈之下,Deepseek只能退回老路训练,重新切换回性能更加可靠的Nvidia的GPU,升腾芯片仅退居辅助,用于模型推理环节。

虽然没有华为和Deepseek官方的回应,也没有他们的辟谣,但是呢,据说是援引了三位知情人士的一些说法,也进行了很多交叉验证,所以这个事情呢,大概率是真的。

国运跟国运相碰撞的时候,升腾也号称是国运级产品,Deepseek肯定是国运级产品,为什么是升腾不灵呢?升腾芯片是可以替代的,也还有一堆竞争对手,所以出现问题以后,他的竞争对手会帮他去宣传。而Deepseek虽然在国内也有模型在追赶,但是地位是不一样的。升腾和国内的其他算力芯片,以及其他那些大模型,从来没有像Deepseek那样震动过世界。所以呢发生碰撞的时候,必须是升腾不行了,不可能是Deepseek不行了。

More

GPT 5发布之后,Sam Altman的油管儿访谈:GPT-8将在2035年治愈癌症?GPT-5只是开胃菜!AGI路线图、未来社会与算力战争全揭秘。

GPT 5发布之后,Sam Altman的油管儿访谈:GPT-8将在2035年治愈癌症?GPT-5只是开胃菜!AGI路线图、未来社会与算力战争全揭秘。已关闭评论

在GPT-5发布之后,山姆·奥特曼在采访中都说了点什么呢?

大家好,欢迎收听“老范讲故事”的YouTube频道

山姆·奥特曼这个采访呢,是8月8号做的,应该是在8月9号咱们这边能看到的。那为什么隔了这么久才去说这个事呢?这几天玩GPT-5玩得还是蛮开心的,所以呢就耽误了。今天跟大家讲一讲,山姆·奥特曼接受YouTube大V采访的时候,都说了点什么。

这个YouTube大V呢,叫Cleo Amber,这真的是大V,642万订阅。像我这个刚刚突破7万订阅的人,好好膜拜一下。这位大V呢,是专注于科技与科学领域的乐观解读。一定要注意,有悲观解读的,就是上来“世界要毁灭了”什么的,这位是专门讲乐观解读的。

整个的访谈呢,是一个小时零5分钟,6天的播放量260万次,远超过这位大V平时的视频播放量。他平时视频大概有210万次播放,其实也是非常高的了,因为他640万的订阅,每一次的视频如果有30%,也就是200多万的播放的话,那是非常非常高的。

More

GPT-5 发布!是革命还是挤牙膏?深度解读AI竞争新格局!AI价格屠夫来了!开发者和创业者的黄金时代开启?

GPT-5 发布!是革命还是挤牙膏?深度解读AI竞争新格局!AI价格屠夫来了!开发者和创业者的黄金时代开启?已关闭评论

大家好,
欢迎收听老范讲故事的YouTube频道
今天咱们来讲一讲GPT-5发布了,到底是又一次划时代的革命,还是开始挤牙膏了呢?

8月8号凌晨开的发布会,我呢看了一眼就去睡觉了,实在是没有功夫把它都看完。北京时间凌晨1点开始发,我今天看了一下回放,大概是一个小时十几分钟吧,但是我并没有特别耐心地把它们都看完。

GPT-5到底有什么不一样的呢?

首先,这一次的发布会跟OpenAI以前的发布会,有一些巨大的差异。第一点大家有没有注意到,就是这次发布以后呢,没有出现服务器拥挤宕机的情况。以前甭管是Sora呀,还是GPT-4o这些产品发布的时候,紧随而来的都是OpenAI的服务器拥堵宕机。这次没有,第一时间就可用,免费版也可以使用,速度还挺快的。我自己反而感觉速度还可以,应该呢是进行了一些实时的算力分配,简单的问题就没必要消耗那么多的算力。原来呢,大家都是要尽可能用最大的模型,你哪怕问一个“你好,今天天气不错”,他也得把那个最大的模型跑起来。现在的话应该就不需要干这个事了,他发现你去问“你好,你是谁,你到底是哪个版本”的时候,他可能做一些很简单的回复,消耗的算力就比较小。这是第一个比较大的差异。

More

从乔布斯“灵魂伴侣”到山姆奥特曼的座上宾,强尼艾夫的IO团队以65亿美金估值并入OpenAI,是AI iPhone的黎明将至,还是又一个AI硬件泡沫的开始?

从乔布斯“灵魂伴侣”到山姆奥特曼的座上宾,强尼艾夫的IO团队以65亿美金估值并入OpenAI,是AI iPhone的黎明将至,还是又一个AI硬件泡沫的开始?已关闭评论

OpenAI以65亿美金收购了强尼艾夫爵士的IO团队,要做AI iPhone了吗?大家好,欢迎收听老范讲故事的YouTube频道。

OpenAI最大的硬件收购来了。没办法,他自己3,000亿美金的估值了,现在收购任何的团队都是比较贵的,所以又变成了有史以来最大的AI硬件团队收购。这一次呢,是以50亿美金的纯股票交易收购强尼艾夫创建的IO团队手里边77%的股票。

这个团队呢,2023年底其实已经被OpenAI投资过了。当时投资了以后占股了是23%。这一次呢,等于是交50亿美金,或者叫以50亿美金的对价收购了剩余的77%的股票。这个65亿美金怎么算出来的?很简单,50亿除0.77就等于65了。所以它的总价值呢,是按照50亿美金收购77%股票的方式反推出来的。

More

鲶鱼效应搅翻AI江湖:DeepSeek 671B开源来袭,GPT-5和百度文心一言迎巨大挑战!

鲶鱼效应搅翻AI江湖:DeepSeek 671B开源来袭,GPT-5和百度文心一言迎巨大挑战!已关闭评论

大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲DeepSeek。这条鲶鱼搅浑了水,GPT5要来了,百度也要免费开源了,到底是一个什么样的情况?大模型这个赛道未来会怎么去发展?

DeepSeek呢,算是彻底改变了游戏规则。OpenAI给整个行业挖的坑,到现在呢,还有一些公司没查出来呢。什么坑?就是客户端这个订阅20美金一个月这个坑。这个其实是一个非常失败的商业模式。谷歌到现在还在往外爬,因为谷歌他其实自己不太想爬出来。为什么?因为他一旦爬出来以后的话,谷歌搜索的广告收入就没了,只能在那里头装聋作哑了。Perplexity到现在也还在思考,到底是不是要爬出来。

大家有没有想过一个问题?开源模型,因为DeepSeek是满血版671B的开源模型,它对于OpenAI的伤害,到底是ToB的伤害大,还是ToC的伤害大?这是一个大家值得去思考的事情。虽然现在DeepSeek在很多的C端有非常大的影响力,就是很多的个人去下载这个东西去用去,但其实真正的开源模型影响最大的是B端。我这是一个自己的公司,我是一个政府项目,或者是一个什么样的商业相关的事情,我要去使用大模型的时候,一定是会优先去选择这种完全可控的开源模型,而不是说我去用人家的闭源的,买人家API。因为你一旦是有开源模型的话,你就可以选择完全私有部署,我自己买台服务器往里装就完了。

More

OpenAI用12天发布会,为业界指明方向。丨从O1到O3,这些革命性进展将如何定义AI未来?

OpenAI用12天发布会,为业界指明方向。丨从O1到O3,这些革命性进展将如何定义AI未来?已关闭评论

OpenAI连续12天的发布会到底为世界指明了什么样的方向?大家好,欢迎收听老范讲故事的YouTube频道。

OpenAI的12天发布会已经结束了。首先,从我个人的感受上来说,稍微有一点点失望。没有带来新一代的Dalle,也就是绘图模型;也没有GPT-5,哪怕是GPT-4.5的升级都没有。Sora虽然发布了,但是他所发布出来的产品跟大家的预期是严重不符的。

那么,这12天到底都发了些什么呢?前面7天其实已经录了一期节目进行总结了,咱们这里就不再重复。后边5天,第八天是搜索和实时语音进行了合并。我在前面7天总结最后的时候,讲了一下我说,现在OpenAI发布了大量的工具,是隔离的。语音是语音,搜索是搜索,canvas这种画板,还有其他的很多工具,是相互隔离的。就是你要选择其中一个功能,其他的功能就不能选了。未来的话,一定会逐渐把他们再合并起来。

More

OpenAI的GPT-o1 发布:科技大爆发的前奏,草莓模型震撼上线

OpenAI的GPT-o1 发布:科技大爆发的前奏,草莓模型震撼上线已关闭评论

大家好,欢迎收听老范讲故事的 YouTube 频道。今天咱们来讲 GPT O1 发布,科技大爆发应该会到来。草莓模型终于发布了。今天我太太还问我说,这个模型发布了,对于你们这些科技圈的人来说,算是意料之外,还是算意料之中?这个事情直接把我问在那了。

其实,每一个人都希望赶快把草莓模型发出来。但是 OpenAI 从今年年初开始公布 Sora 到现在,他吹的牛有点太多了。到现在为止,这是我们真正见到的能够用的产品。虽然 GPT4O 也是能用,但完整的 GPT4O 其实到目前为止,一直没有彻底开放出来。而这个 O1 上来直接就开放了,今天早上凌晨 3 点突然上线,哐往那一挂,大家愿意用的都可以去用了。我自己也去用去了。他呢,也换了一个名字,叫 GPT-O1。所以呢,这就不是 GPT5。

未来可能会走两条路,一个是继续走这种直接进行语言生成的,而 O1 这条路,走的是深度思考,要去反思一个问题,要深思熟虑以后才去回答。所以他有可能两个路要分开走,而且两个模型可能会相互配合着使用。

More

退出移动版