从华为天才少年到机器人革新:稚晖君灵犀X2揭秘——更像人的机器人如何改变未来?

从华为天才少年到机器人革新:稚晖君灵犀X2揭秘——更像人的机器人如何改变未来?已关闭评论

从华为离职的天才少年稚晖君,时隔两年,带着他的最新机器人灵犀X2,再次与大家见面。这个机器人长得更像人了。大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲稚晖君和他的灵犀X2机器人。

稚晖君呢,到目前为止,依然没有摆脱华为天才少年的光环。虽然我们在视频里看到,他已经成熟很多了。估计要等他的机器人真正大卖,他才能够摆脱华为天才少年的光环。他呢,是一个学霸,同时他具有其他这些机器人创业企业创始人所不具备的特性。他是个B站网红。从他去华为那一天开始,他就是个B站网红,到目前为止依然如此。这是一个非常非常重要的技能,因为在大模型时代,在AI时代,具身智能和人形机器人的时代,你不会讲故事,不会拍视频,这个事肯定是不行的。最基础的技能是讲故事和拍视频。大家看看马斯克,看看Figure AI,看看OpenAI,这都属于是即会讲故事,即会拍视频的公司。

为什么是这样呢?因为以前很多的新技术、新科学,都是给B端或者是给政府用的。你拍很漂亮的视频,这个事是没有意义的。你需要很认真地写全面的报告,然后拿着那样的报告去给人家做演示,甚至还要有关系,你才能把东西卖掉。而现在的话,甭管是AI大模型,还是这些具身智能,它都有很强的ToC属性,就是我们要给普通用户去用。那你既然要去做普通用户的转化率,你没有办法讲好故事,没有办法拍好视频的话,那你的内容传播力一定会打折扣的。稚晖君在这块上,肯定是要比别人强非常多。

More

鲶鱼效应搅翻AI江湖:DeepSeek 671B开源来袭,GPT-5和百度文心一言迎巨大挑战!

鲶鱼效应搅翻AI江湖:DeepSeek 671B开源来袭,GPT-5和百度文心一言迎巨大挑战!已关闭评论

大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲DeepSeek。这条鲶鱼搅浑了水,GPT5要来了,百度也要免费开源了,到底是一个什么样的情况?大模型这个赛道未来会怎么去发展?

DeepSeek呢,算是彻底改变了游戏规则。OpenAI给整个行业挖的坑,到现在呢,还有一些公司没查出来呢。什么坑?就是客户端这个订阅20美金一个月这个坑。这个其实是一个非常失败的商业模式。谷歌到现在还在往外爬,因为谷歌他其实自己不太想爬出来。为什么?因为他一旦爬出来以后的话,谷歌搜索的广告收入就没了,只能在那里头装聋作哑了。Perplexity到现在也还在思考,到底是不是要爬出来。

大家有没有想过一个问题?开源模型,因为DeepSeek是满血版671B的开源模型,它对于OpenAI的伤害,到底是ToB的伤害大,还是ToC的伤害大?这是一个大家值得去思考的事情。虽然现在DeepSeek在很多的C端有非常大的影响力,就是很多的个人去下载这个东西去用去,但其实真正的开源模型影响最大的是B端。我这是一个自己的公司,我是一个政府项目,或者是一个什么样的商业相关的事情,我要去使用大模型的时候,一定是会优先去选择这种完全可控的开源模型,而不是说我去用人家的闭源的,买人家API。因为你一旦是有开源模型的话,你就可以选择完全私有部署,我自己买台服务器往里装就完了。

More

中国AI力量崛起:DeepSeek如何成为国运级创新的代表,搅动全球AI格局?

中国AI力量崛起:DeepSeek如何成为国运级创新的代表,搅动全球AI格局?已关闭评论

第二个故事:DeepSeek到底是不是国运级的创新呢?国运级创新这个事呢,是游戏科学的创始人兼CEO冯骥他去讲的。DeepSeek是一个国运级的创新。游戏科学,就是黑神话悟空的这个开发商。DeepSeek呢,也确实让美股市值蒸发了很多很多钱。而且还有一位美国的参议员说:“我们要下最严格的法令来禁止DeepSeek。谁敢下载DeepSeek判20年,哪个企业敢去用DeepSeek罚1亿美金。”

这个是个共和党参议员叫Josh Holy,写了一个法案,叫2025年美国人工智能能力与中国脱钩法案。禁止技术交流与使用,禁止美国公民、企业与中国开展任何AI技术合作,包括研发、投资、数据共享等。非美国公民若涉及技术转移,可以驱逐出境。然后切断资本与人才流动,禁止美国资本对中国AI企业投资,并限制美籍科研人员参与中国AI项目。任何与中国高效实验室合作的美国机构将面临重罚。违反本法案的个人将被视为严重犯罪分子,可能影响其移民身份、绿卡申请和入籍资格。美国公司不能直接或间接向中国企业提供AI技术支持或者服务。但是这个法案呢,因为太过极端已经被搁置了。

先讲一下使用DeepSeek的方式到底是什么样的。如果你在美国使用DeepSeek,那千万千万不要去DeepSeek网去挂,那是根本得不到服务的。最好是什么呢?就是去在美国的云主机上去使用。现在DeepSeek自己的网站基本上是半瘫痪状态,聊两句就趴菜。我基本上是第一句能聊,第二句能聊,第三句你再怎么跟他聊都趴。他是这样的一个状态。你可能明天再跟他聊,还可以聊两句。API调用的话非常非常慢。而且呢,现在禁止充值了。整个春节期间,API调用的这个页面就打不开了,把整个API后台给你封掉了。现在的话是后台重新有了,但是不允许充值。现在呢,国内是各种云上都有,国内的是阿里云、腾讯云、华为云。华为云的DeepSeek呢。

More

软银OpenAI日本公司背后的资本阳谋——5,000亿星际之门是如何影响全球AI格局的?

软银OpenAI日本公司背后的资本阳谋——5,000亿星际之门是如何影响全球AI格局的?已关闭评论

SB OpenAI日本公司宣布成立,这怎么听怎么像是在骂人呢?大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲SB OpenAI日本公司到底是一个什么样的情况。

孙正义上台宣布Softbank OpenAI Japan这个公司成立了,所以这个SB不是骂人,它是软银Softbank的意思。今年我们发现OpenAI的声音连续不断,这是为什么呢?原因也很简单,老大的位置不是很稳固了。你要想在这一个行业里面当老大,要么你技术特别好大家都服气,比如像谷歌这样的,各个行业里头,只要跟计算机技术有关的,大家都知道谷歌的技术最好;要不然你垄断,比如像苹果这样,或者像Meta这样的,在社交媒体里我直接垄断了,大家知道你是老大。

如果技术也被人质疑了,花了好多钱训练出一堆模型来,别人也都可以达到了Claude 3.5、Sonnet、Gemini 2.0、Flash这样的模型,其实现在已经跟GPT-4相差仿佛了。你新发布了一大堆乱七八糟的模型呢,都是很小众的高端产品,对于大众来说无感。在这种情况下,你的技术就会被人质疑。

More

揭秘Safe Superintelligence:伊利尔如何打造安全超级智能

揭秘Safe Superintelligence:伊利尔如何打造安全超级智能已关闭评论

伊利尔在创业,他的公司叫做Safe Superintelligence(安全超级智能)。这个公司的主要业务是什么呢?目前,公司由三个人组成,分别是伊利尔、Daniel Goose和Daniel Levy。伊利尔是一位以色列裔加拿大人,他精通俄语、希伯来语和英语。Daniel Goose是一位以色列企业家和投资人,而Daniel Levy是伊利尔的旧部。

在人才和算力方面,Safe Superintelligence也非常强大。Daniel Gross和Knight Fragman联合创立了算力云,他们拥有3000块H100。有趣的是,他们还可以使用五吨重的H100,因为每块H100的重量超过一公斤,所以3000块H100大约有五吨重。另外,文章中还提到了一个有趣的名字,叫做Knight Fragman,他是之前的Get Have公司的CEO。去年11月,董事会将山姆奥特曼解雇后,他接任了CEO一职。


说我们要请一个临时CEO来,就是这个叫Matt Fredman。他请来了以后说:“啊,我诚惶诚恐啊,你们想怎么干啊,咱们接着干。”等山姆奥特曼回归了以后,他就走了。他是跟Daniel Grusse联合创立了算力允啊,现在Daniel Grusse是投资和参与了伊利尔新的公司SSI,大概是这样的一个关系。那你说,现在已经有算例了啊,有人才了,那数据哪来呢?现在的数据其实比以前要好获得的多。为什么呢?因为现在可以直接让大模型生成数据,这样的话质量更高,可控性更强。像拉玛3的训练,实际上就是用大量的拉玛2来直接进行数据处理,数据预处理以及数据生成啊。那么,他就可以训练出这么厉害的拉玛3来。现在伊利尔估计也会走这条路,人有了算了,也有了啊,数据呢也有了。那么到底什么是安全啊?说他跟山姆奥特曼吵架的原因是因为他觉得山姆奥特曼做的东西不安全,而且不安全是非常危险的,会对人类造成损害。说不,我要出去,我要做一个安全的,而且叫安全超级智能,对吧?怎么叫安全呢?实际上,现在的安全需要重新去定义了。我们所说的安全啊,是像核安全那样的安全,而不是信任核安全那样的安全。这个是伊利尔讲的原话。那我们来想想,什么样的东西是像核安全一样管理?核安全到底是怎么管理的?第一个,我们来对所有的数据进行记录。


一共有多少颗核弹都得记上,哪颗核弹在什么地方,全世界的人都得知道。哎,不能说哪多出一颗核弹来,这是不允许的,至少大的是不允许的。然后呢,还要有这种叫核不扩散的协议,而且还要有各种承诺,说哎,我们啊承诺不优先使用核武器,而且知道核武器这个东西一旦使用了以后,对整个的人类,对整个未来的环境和很长一个时间都是有巨大伤害的。这个是核安全,而这种信任核安全呢就是说,我相信你不会干坏事啊,至于你以后万一干了次坏事呢,我还可以再原谅你几次。这个是信任和安全。所以伊利尔呢是准备把AI安全作为核安全的方式来去管理的。那大家想一想,他会怎么来管这个事情,如何做到安全呢?伊利尔讲了,说我们只有一个目标和产品,就是做这安全超级AI,不会去做APP也不会做什么这些东西啊,而且呢没有时间和财务上的压力。现在呢他讲把OpenAI搞成这样,为什么呢?啊是因为有财务压力,你需要烧更多的钱,你必须要不停的再去融资,像我们以前也讲,你只要开始拿投资人的钱了,开始融资了,就相当于是在脖子上套了一条枷锁,对吧,投资人会催着你往前跑的,他会有时间和财务上的压力。伊丽尔说我没有啊,我就耐心做这个产品,而且呢他是希望通过工程突破,而不是各种临时技术措施,来去保证安全啊。大家注意啊。


伊利尔本身既是一位科学家,也是一位工程大师。他致力于将安全和能力视为技术问题,并通过革命性的工程和科学突破来解决这些问题。他希望能够直接解决安全问题,而不是仅仅通过打补丁等临时性技术措施来解决。他的工程能力使他能够实现量变达到质变,从而成为一个工程大师的典范。他的大模型是一个工程学方面的案例,通过堆积更多的参数和数据,他能够获得不同的结果。伊利尔提出的规模法则,即”scaring low”,指出只要扩大模型,就会获得不同的效果。他的发明和创造力使他成为一个大力出奇迹的发明人。

More

退出移动版