7 月 23
范, 路 AIGC 100亿参数 , 10亿参数 , 70亿参数 , AI Agent , AI模型策略 , Anthropic Cloud H3 , API代理 , API服务 , API调用 , GPT-3.5 , GPT-4o , GPT-4o MINI , OpenAI , Plus用户 , Plus订阅计划 , 个人服务器 , 中国市场 , 云端模型 , 产品发布 , 付费频道 , 价格便宜 , 价格策略 , 低价模型 , 免费用户 , 函数调用 , 分岔趋势 , 功能集成 , 参数未公开 , 台式机模型 , 合作伙伴 , 商业模型 , 商业策略 , 大模型市场 , 大模型替代 , 封禁中国IP , 小模型 , 小模型效能 , 工作流 , 工作站级别 , 市场占有率 , 市场反馈 , 市场竞争 , 市场趋势 , 市场需求 , 应用开发 , 开源模型 , 微型模型 , 技术优势 , 技术创新 , 技术挑战 , 技术程度 , 技术进步 , 技术领先 , 数据调用 , 未来计划 , 本地部署 , 模型升级 , 模型性能 , 浏览器插件 , 用户体验 , 用户分叉 , 用户反馈 , 用户吸引力 , 用户满意度 , 用户粘度 , 用户需求 , 田忌赛马 , 移动端模型 , 竞争对手 , 竞争策略 , 端侧使用 , 端侧竞争 , 经济考量 , 经济高效 , 视觉多模态识别 , 训练成本 , 谷歌Gemini Flash , 输入100万TOKEN , 输出100万TOKEN , 高性能模型 , 高效模型
VIDEO
OpenAI在封禁中国IP访问其API之后,第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型,这究竟是要卷死谁啊?中国团队是不是有机会弯道超车呢?大家好,这里是老范讲故事YouTube频道。Open AI第一次发布微型模型,以前的Open AI都是一个比一个大,因为原来人家讲的叫Scaring Law,就是这种伸缩法则,只要是变大,我一定会变强。而且,也嘲笑那些小模型说你们肯定不行啊,一定是大的好使。我自己原来也是很喜欢使用大模型,有大的不识小的,这是我原来挑选模型时候的基本原则。但是现在,Open AI开始卷小模型了。
Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。
那么,这样的一个鼓励越大越好的公司,原来更多的人力肯定是去研究更大的模型去了。现在说不,我要上一个小的,而且这种小模型呢,跟一般的小模型还有区别。区别在于它可以支持Function Call,可以支持视觉多模态的识别。那么,这是GPT4O MINI比其他的普通小模型所独有的特点。
More
6 月 05
Luke Fan AIGC , 老范讲给儿子的IT课程 AI , 个性化 , 个性化服务 , 人工智能 , 商业 , 基础原理 , 大模型 , 学习路径 , 学生指导 , 工程思考 , 工程能力 , 应用开发 , 批判精神 , 技术发展 , 教育 , 数字化 , 数字时代 , 数据结构 , 未来趋势 , 标准化 , 沟通协作 , 用户需求 , 社会人文 , 程序员 , 编程语言 , 职业发展 , 自定义软件 , 计算机教育 , 计算机科学 , 软件价值 , 软件工程 , 软件开发 , 软件开发成本 , 逻辑思维 , 逻辑思考 , 重复使用 , 需求顾问 , 高等教育
VIDEO
大家好,欢迎收听“老范讲故事”YouTube频道。今天,咱们来讲一讲AI时代,现在学计算机还来得及吗?啊,首先要跟大家讲说,这个内容是怎么来的。呃,儿子要成人礼了,也是马上要高考了,太太给了我一个任务,让我给儿子写一封信。所以呢,我就前面录了一个视频,是给儿子的一封信。这个里面呢,有一部分就是讲AI时代,学计算机应该怎么学的。现在呢,我把这一部分摘出来,单独跟大家聊一下。
首先呢,要讲一下我的父母跟我太太的父母,在我们两个人选择大学专业的时候,跟我们说的话。我父母两个呢,都是学机械的——机械制造、机械设计、机械原理。我太太的父母呢,应该都是学电子工程的。啊,当我去高考的时候呢,我的父母跟我讲说:“不要去学机械啊,去学计算机吧。”为什么呢?说学机械这事儿啊,太辛苦太累,需要去工厂,需要跟这些设备打交道,太累了。他说学计算机这事儿啊,虽然也挺累的,但是你好歹是在空调的机房里呆着呀,你跟这个在工厂里的人比起来,你要好很多了。当然,我自己也比较喜欢,这是大前提。
我太太的父母呢,在他高考的时候说:“学电子太累了啊,你要不停地学新东西,电子元器件啊,电子的各种设备啊,不停地更新换代,这事儿实在太累了。”
More
6 月 04
Luke Fan AIGC , 英伟达,黄仁勋的故事 1.8万亿参数 , 2.7万亿美金 , AI , AIPC , AI工厂 , AI工厂时代 , AR , Blackware , COMPUTEX , GPT-4 , GPT4 , GPU , GPU技术大会 , GPU核心 , GTC , H1 , H100 , MoE , NVIDIA , NVlink , RTX , scoring low , SERVER , stable diffusion , TOKEN , TX , VR , 云计算 , 人工智能 , 内存 , 军备竞赛 , 分析 , 参数 , 参数量 , 台积电 , 合作伙伴 , 商业 , 垄断地位 , 大模型 , 工程师 , 市值 , 应用开发 , 开发者 , 微软 , 戴尔 , 技术大会 , 投资人 , 推理 , 推理能耗 , 支架 , 数据中心 , 显卡 , 机器人 , 机箱 , 模型 , 模型训练 , 游戏助手 , 版本 , 生态链 , 用户 , 硬件 , 科技 , 移动互联网 , 竞争 , 竞争对手 , 竞争者 , 算力 , 算力成本 , 算力芯片 , 缩放定律 , 股价 , 能耗 , 芯片 , 英伟达 , 苹果 , 行业秘密 , 计算机 , 计算机大会 , 训练能耗 , 设计 , 谷歌 , 贷宽 , 超威 , 车载芯片 , 软件 , 铁皮 , 黄仁勋
VIDEO
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More