3 月 14
Luke FanAIGC, 机器人与具身智能 AI时代机器人, AI机器人, Figure 02对比, GO-1大模型, GO-1模型开源, LO-1模型功能, 个性化机器人, 串联机构, 亲肤外壳, 人工智能机器人, 人形机器人, 人形机器人创新, 人机交互, 具身智能, 华为天才少年, 宇树科技机器人对比, 并联机构, 开源大模型, 强化学习机器人, 智源科技, 智能机器人, 智能机器人市场, 机器人交互模型, 机器人保姆, 机器人保安, 机器人保洁, 机器人创业, 机器人创新, 机器人制造, 机器人动作协调, 机器人动作控制, 机器人吉祥三宝, 机器人咖啡牛奶测试, 机器人基座模型, 机器人多模态模型, 机器人家庭应用, 机器人市场, 机器人平衡车, 机器人开会, 机器人开源数据, 机器人技术, 机器人技术开源, 机器人教育, 机器人智能化, 机器人未来发展, 机器人未来潜力, 机器人模块化设计, 机器人生态系统, 机器人研发, 机器人精准操作, 机器人螺旋稳定器, 机器人行为训练, 机器人视觉反馈, 机器人训练效率, 机器人设计, 机器人跳舞, 机器人零配件, 机器人领域趋势, 机器人骑自行车, 机器智能, 模块化机器人, 灵活机器人, 灵犀X2, 灵犀X2功能, 灵犀X2测评, 灵犀X2特点, 稚晖君, 稚晖君机器人, 虚拟环境训练, 零样本泛化
从华为离职的天才少年稚晖君,时隔两年,带着他的最新机器人灵犀X2,再次与大家见面。这个机器人长得更像人了。大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲稚晖君和他的灵犀X2机器人。
稚晖君呢,到目前为止,依然没有摆脱华为天才少年的光环。虽然我们在视频里看到,他已经成熟很多了。估计要等他的机器人真正大卖,他才能够摆脱华为天才少年的光环。他呢,是一个学霸,同时他具有其他这些机器人创业企业创始人所不具备的特性。他是个B站网红。从他去华为那一天开始,他就是个B站网红,到目前为止依然如此。这是一个非常非常重要的技能,因为在大模型时代,在AI时代,具身智能和人形机器人的时代,你不会讲故事,不会拍视频,这个事肯定是不行的。最基础的技能是讲故事和拍视频。大家看看马斯克,看看Figure AI,看看OpenAI,这都属于是即会讲故事,即会拍视频的公司。
为什么是这样呢?因为以前很多的新技术、新科学,都是给B端或者是给政府用的。你拍很漂亮的视频,这个事是没有意义的。你需要很认真地写全面的报告,然后拿着那样的报告去给人家做演示,甚至还要有关系,你才能把东西卖掉。而现在的话,甭管是AI大模型,还是这些具身智能,它都有很强的ToC属性,就是我们要给普通用户去用。那你既然要去做普通用户的转化率,你没有办法讲好故事,没有办法拍好视频的话,那你的内容传播力一定会打折扣的。稚晖君在这块上,肯定是要比别人强非常多。
More
2 月 18
Luke FanAIGC, DeepSeek大模型 671B开源模型, AI免费服务, AI发展趋势, AI商业模式创新, AI垄断, AI安全性, AI对话模型, AI幻觉问题, AI广告收入, AI开源, AI推理模型, AI未来发展, AI模型对齐, AI流量焦虑, AI用户忠诚度, AI盈利困局, AI系统集成, AI行业竞争, AI语音功能, AI黑箱子, B端市场, Claude 4发布时间, Claude4, C端市场, DeepSeek, DeepSeek API, DeepSeek R1一体机, DeepSeek安全性, DeepSeek对OpenAI影响, Gemini 2.0, Google AI Studio, GPT-4.5, GPT-5, GPT-5功能, Llama4, OpenAI, OpenAI盈利, OpenAI订阅, ToB市场, ToB部署, ToC市场, ToC用户体验, 多模态生成, 大模型, 大模型商业模式, 大模型统一接口, 大模型计算成本, 山姆·奥特曼, 开放源代码, 开源大模型, 推广成本, 推理成本, 推理模型O系, 文心一言4.0, 文心一言4.5, 文心一言Turbo, 文心一言免费, 李彦宏, 百度AI, 百度搜索广告, 百度文心一言, 谷歌AI策略, 谷歌Gemini
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲DeepSeek。这条鲶鱼搅浑了水,GPT5要来了,百度也要免费开源了,到底是一个什么样的情况?大模型这个赛道未来会怎么去发展?
DeepSeek呢,算是彻底改变了游戏规则。OpenAI给整个行业挖的坑,到现在呢,还有一些公司没查出来呢。什么坑?就是客户端这个订阅20美金一个月这个坑。这个其实是一个非常失败的商业模式。谷歌到现在还在往外爬,因为谷歌他其实自己不太想爬出来。为什么?因为他一旦爬出来以后的话,谷歌搜索的广告收入就没了,只能在那里头装聋作哑了。Perplexity到现在也还在思考,到底是不是要爬出来。
大家有没有想过一个问题?开源模型,因为DeepSeek是满血版671B的开源模型,它对于OpenAI的伤害,到底是ToB的伤害大,还是ToC的伤害大?这是一个大家值得去思考的事情。虽然现在DeepSeek在很多的C端有非常大的影响力,就是很多的个人去下载这个东西去用去,但其实真正的开源模型影响最大的是B端。我这是一个自己的公司,我是一个政府项目,或者是一个什么样的商业相关的事情,我要去使用大模型的时候,一定是会优先去选择这种完全可控的开源模型,而不是说我去用人家的闭源的,买人家API。因为你一旦是有开源模型的话,你就可以选择完全私有部署,我自己买台服务器往里装就完了。
More
2 月 11
Luke FanAIGC, DeepSeek大模型 2025美中脱钩法案, 360智能云, AI与股市, AI云服务, AI产业链, AI产业革命, AI公司估值, AI公司分析, AI发展趋势, AI国际化, AI大模型, AI开源技术, AI开源模型, AI技术划时代, AI技术合作, AI技术壁垒, AI投资趋势, AI推理芯片, AI核心技术, AI概念股, AI模型免费, AI模型统一, AI生态统一, AI股票涨停, AI行业投资, AI革命, ASIC芯片, DeepSeek, DeepSeek R1, Deepseek V3, DeepSeek与英伟达, DeepSeek国运创新, DeepSeek影响力, DeepSeek技术解析, DeepSeek股票影响, DeepSeek部署, GPU, Josh Holy, LLaMA, TPU, 东升西降, 中国AI, 中国AI崛起, 中国AI未来, 中国移动, 京东云, 人工智能禁令, 全球AI竞争, 全球AI部署, 六小虎, 华为盘古, 博通, 国运级创新, 国运级创新意义, 国际AI格局, 大模型微调, 字节豆包, 开源大模型, 概念股, 游戏科学, 火山引擎, 百度, 百度智能云, 硅基流动, 科技公司涨停, 美股蒸发, 腾讯, 腾讯浑元, 英伟达, 金山云, 阿里云, 阿里千问, 黑神话悟空
第二个故事:DeepSeek到底是不是国运级的创新呢?国运级创新这个事呢,是游戏科学的创始人兼CEO冯骥他去讲的。DeepSeek是一个国运级的创新。游戏科学,就是黑神话悟空的这个开发商。DeepSeek呢,也确实让美股市值蒸发了很多很多钱。而且还有一位美国的参议员说:“我们要下最严格的法令来禁止DeepSeek。谁敢下载DeepSeek判20年,哪个企业敢去用DeepSeek罚1亿美金。”
这个是个共和党参议员叫Josh Holy,写了一个法案,叫2025年美国人工智能能力与中国脱钩法案。禁止技术交流与使用,禁止美国公民、企业与中国开展任何AI技术合作,包括研发、投资、数据共享等。非美国公民若涉及技术转移,可以驱逐出境。然后切断资本与人才流动,禁止美国资本对中国AI企业投资,并限制美籍科研人员参与中国AI项目。任何与中国高效实验室合作的美国机构将面临重罚。违反本法案的个人将被视为严重犯罪分子,可能影响其移民身份、绿卡申请和入籍资格。美国公司不能直接或间接向中国企业提供AI技术支持或者服务。但是这个法案呢,因为太过极端已经被搁置了。
先讲一下使用DeepSeek的方式到底是什么样的。如果你在美国使用DeepSeek,那千万千万不要去DeepSeek网去挂,那是根本得不到服务的。最好是什么呢?就是去在美国的云主机上去使用。现在DeepSeek自己的网站基本上是半瘫痪状态,聊两句就趴菜。我基本上是第一句能聊,第二句能聊,第三句你再怎么跟他聊都趴。他是这样的一个状态。你可能明天再跟他聊,还可以聊两句。API调用的话非常非常慢。而且呢,现在禁止充值了。整个春节期间,API调用的这个页面就打不开了,把整个API后台给你封掉了。现在的话是后台重新有了,但是不允许充值。现在呢,国内是各种云上都有,国内的是阿里云、腾讯云、华为云。华为云的DeepSeek呢。
More
2 月 05
Luke FanAIGC AI Agent, AI agent方向, AI代金券机制, AI任务优化, AI分析工具, AI创新瓶颈, AI劳务派遣制度, AI商业化, AI商业模式, AI市场前景, AI市场变革, AI开放性, AI手动规划, AI技术, AI技术应用, AI技术演变, AI技术进化, AI技术革新, AI新方向, AI旧势力, AI时代竞争, AI普世性, AI核心问题, AI综合能力, AI舆论制高点, AI行业垄断, AI行业竞争, AI财报分析, AI资源整合, Claude 3.5, Deep Research, DeepSeek, DeepSeek影响, Gemini 2.0, GPT-4, Meta, OpenAI, OpenAI代金券, OpenAI最新动态, SB OpenAI Japan, Softbank AI, 大手企业AI改革, 孙正义, 开源大模型, 微软与OpenAI合作, 微软云代金券, 日本AI, 日本AI困境, 日本AI市场分析, 日本AI应用案例, 日本AI掉队, 日本AI未来, 日本AI行业现状, 日本企业AI应用, 日本科技创新, 日本移动运营商, 星际之门, 未来AI行业趋势, 水晶智能, 科技创新, 自动规划, 谷歌AI, 资本运作, 软银
SB OpenAI日本公司宣布成立,这怎么听怎么像是在骂人呢?大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲SB OpenAI日本公司到底是一个什么样的情况。
孙正义上台宣布Softbank OpenAI Japan这个公司成立了,所以这个SB不是骂人,它是软银Softbank的意思。今年我们发现OpenAI的声音连续不断,这是为什么呢?原因也很简单,老大的位置不是很稳固了。你要想在这一个行业里面当老大,要么你技术特别好大家都服气,比如像谷歌这样的,各个行业里头,只要跟计算机技术有关的,大家都知道谷歌的技术最好;要不然你垄断,比如像苹果这样,或者像Meta这样的,在社交媒体里我直接垄断了,大家知道你是老大。
如果技术也被人质疑了,花了好多钱训练出一堆模型来,别人也都可以达到了Claude 3.5、Sonnet、Gemini 2.0、Flash这样的模型,其实现在已经跟GPT-4相差仿佛了。你新发布了一大堆乱七八糟的模型呢,都是很小众的高端产品,对于大众来说无感。在这种情况下,你的技术就会被人质疑。
More
6 月 25
Luke FanAIGC AI安全, AI拼凑内容, AI生成内容, AI生成内容监管, AI生成垃圾内容, AI越狱, AI造假, Daniel Goose, Daniel Levy, H100 GPU, Safe Superintelligence, SEO优化, SEO骗流量, 上市, 中立性, 临时技术措施, 二维码溯源, 以色列裔加拿大人, 伊利尔, 优先使用, 信息孤岛, 信息溯源, 信息真实性, 内容甄别, 内容过滤, 可信媒体, 可控性, 商业压力, 多模态识别, 大企业赋能, 大模型, 大模型安全问题, 大模型训练, 安全公司, 安全协议, 安全定义, 安全实验室, 安全检测, 安全检测模型, 安全防护, 安全防护功能, 实验室, 工程突破, 工程能力, 平台处罚, 幻觉生成, 开源大模型, 开源模型检测, 执行者, 承诺, 技术问题, 拉玛2数据, 拉玛3训练, 攻击防护, 政府赋能, 数据处理, 数据生成, 数据训练, 数据质量, 数据预处理, 未来环境, 标准制定者, 核不扩散, 核不扩散协议, 核安全, 核武器, 核武器使用, 模型尺寸, 模型领域, 流量变现, 焦虑营销, 环境安全, 科学突破, 算力资源, 组织架构, 股民服务, 视频验证, 资本压制, 超级智能, 输入检测, 输出检测, 量变质变, 非盈利组织, 骗流量, 骗补贴
伊利尔在创业,他的公司叫做Safe Superintelligence(安全超级智能)。这个公司的主要业务是什么呢?目前,公司由三个人组成,分别是伊利尔、Daniel Goose和Daniel Levy。伊利尔是一位以色列裔加拿大人,他精通俄语、希伯来语和英语。Daniel Goose是一位以色列企业家和投资人,而Daniel Levy是伊利尔的旧部。
在人才和算力方面,Safe Superintelligence也非常强大。Daniel Gross和Knight Fragman联合创立了算力云,他们拥有3000块H100。有趣的是,他们还可以使用五吨重的H100,因为每块H100的重量超过一公斤,所以3000块H100大约有五吨重。另外,文章中还提到了一个有趣的名字,叫做Knight Fragman,他是之前的Get Have公司的CEO。去年11月,董事会将山姆奥特曼解雇后,他接任了CEO一职。
说我们要请一个临时CEO来,就是这个叫Matt Fredman。他请来了以后说:“啊,我诚惶诚恐啊,你们想怎么干啊,咱们接着干。”等山姆奥特曼回归了以后,他就走了。他是跟Daniel Grusse联合创立了算力允啊,现在Daniel Grusse是投资和参与了伊利尔新的公司SSI,大概是这样的一个关系。那你说,现在已经有算例了啊,有人才了,那数据哪来呢?现在的数据其实比以前要好获得的多。为什么呢?因为现在可以直接让大模型生成数据,这样的话质量更高,可控性更强。像拉玛3的训练,实际上就是用大量的拉玛2来直接进行数据处理,数据预处理以及数据生成啊。那么,他就可以训练出这么厉害的拉玛3来。现在伊利尔估计也会走这条路,人有了算了,也有了啊,数据呢也有了。那么到底什么是安全啊?说他跟山姆奥特曼吵架的原因是因为他觉得山姆奥特曼做的东西不安全,而且不安全是非常危险的,会对人类造成损害。说不,我要出去,我要做一个安全的,而且叫安全超级智能,对吧?怎么叫安全呢?实际上,现在的安全需要重新去定义了。我们所说的安全啊,是像核安全那样的安全,而不是信任核安全那样的安全。这个是伊利尔讲的原话。那我们来想想,什么样的东西是像核安全一样管理?核安全到底是怎么管理的?第一个,我们来对所有的数据进行记录。
一共有多少颗核弹都得记上,哪颗核弹在什么地方,全世界的人都得知道。哎,不能说哪多出一颗核弹来,这是不允许的,至少大的是不允许的。然后呢,还要有这种叫核不扩散的协议,而且还要有各种承诺,说哎,我们啊承诺不优先使用核武器,而且知道核武器这个东西一旦使用了以后,对整个的人类,对整个未来的环境和很长一个时间都是有巨大伤害的。这个是核安全,而这种信任核安全呢就是说,我相信你不会干坏事啊,至于你以后万一干了次坏事呢,我还可以再原谅你几次。这个是信任和安全。所以伊利尔呢是准备把AI安全作为核安全的方式来去管理的。那大家想一想,他会怎么来管这个事情,如何做到安全呢?伊利尔讲了,说我们只有一个目标和产品,就是做这安全超级AI,不会去做APP也不会做什么这些东西啊,而且呢没有时间和财务上的压力。现在呢他讲把OpenAI搞成这样,为什么呢?啊是因为有财务压力,你需要烧更多的钱,你必须要不停的再去融资,像我们以前也讲,你只要开始拿投资人的钱了,开始融资了,就相当于是在脖子上套了一条枷锁,对吧,投资人会催着你往前跑的,他会有时间和财务上的压力。伊丽尔说我没有啊,我就耐心做这个产品,而且呢他是希望通过工程突破,而不是各种临时技术措施,来去保证安全啊。大家注意啊。
伊利尔本身既是一位科学家,也是一位工程大师。他致力于将安全和能力视为技术问题,并通过革命性的工程和科学突破来解决这些问题。他希望能够直接解决安全问题,而不是仅仅通过打补丁等临时性技术措施来解决。他的工程能力使他能够实现量变达到质变,从而成为一个工程大师的典范。他的大模型是一个工程学方面的案例,通过堆积更多的参数和数据,他能够获得不同的结果。伊利尔提出的规模法则,即”scaring low”,指出只要扩大模型,就会获得不同的效果。他的发明和创造力使他成为一个大力出奇迹的发明人。
More