10 月 15
Luke Fan 字节跳动,故事多 20亿美金投入 , AI发展 , AI审核 , AI模型 , TikTok , 上市准备 , 业务扩张 , 中美关系 , 互联网发展 , 产品控制 , 产品整合 , 人事调整 , 人力成本 , 人工效率 , 人工智能 , 企业估值 , 企业内控 , 企业战略 , 企业文化 , 企业架构 , 信息安全 , 信息流通 , 全球动向 , 全球市场 , 全球布局 , 全球视野 , 公司策略 , 内容合规 , 内容审核 , 内容过滤 , 合作伙伴 , 合规管理 , 员工调整 , 商业模式 , 国内团队 , 国际业务 , 字节跳动 , 宏观经济 , 审核团队 , 就地审核 , 工程方式 , 市场份额 , 市场动态 , 市场竞争 , 平台监管 , 应用场景 , 快速传播 , 成本控制 , 技术创新 , 技术升级 , 技术壁垒 , 技术革新 , 投诉机制 , 抖音 , 数字化转型 , 数据保护 , 数据处理 , 数据隐私 , 新加坡总部 , 时间协同 , 模型应用 , 法律法规 , 法规合理化 , 法规要求 , 用户体验 , 知识产权 , 破解法律 , 社交媒体 , 社会责任 , 福利国家 , 科技博主 , 程序开发 , 算力成本 , 管理总部 , 纽约时区 , 聘用政策 , 英语审核 , 行业标准 , 行业趋势 , 视频标签 , 资源调配 , 资源配置 , 运营模式 , 雇佣政策 , 风险管理 , 马来西亚 , 马来西亚裁员
VIDEO
字节跳动在马来西亚开启了大裁员。这是什么样的情况?大家好,这里是老范讲故事的YouTube频道。近期传出消息,字节跳动在马来西亚裁撤了700名员工,而这些员工主要从事的是内容审核相关的工作。
现在字节跳动也出面回应,表示:“我们确实进行了裁员,而且我们要去改变内容审核的方式,更多地依赖AI进行审核,而不是人工进行审核。”当然,字节跳动肯定还要出来立一个牌子,表示我们准备一年投入20亿美金。这一定是一个很巨大的数字,让大家看到诚意。那么,我们要投入20亿美金干嘛呢?在全球范围内进行内容审核,确保我们的内容质量以及一些安全的内容被传播。
那么,这个裁员背后到底有什么含义呢?首先,大家要想一个问题:马来西亚有700名内容审核员工,这些人审核的内容都是来自于马来西亚吗?这肯定是不可能的。马来西亚一共几千万人,他需要700个人坐在这里做内容审核吗?这个不会的。那么,马来西亚的700名内容审核人员审核的内容是哪来的呢?其实是来自于全球的TikTok用户,至少是英语用户,应该都是在这里进行审核的。
More
7 月 23
范, 路 AIGC 100亿参数 , 10亿参数 , 70亿参数 , AI Agent , AI模型策略 , Anthropic Cloud H3 , API代理 , API服务 , API调用 , GPT-3.5 , GPT-4o , GPT-4o MINI , OpenAI , Plus用户 , Plus订阅计划 , 个人服务器 , 中国市场 , 云端模型 , 产品发布 , 付费频道 , 价格便宜 , 价格策略 , 低价模型 , 免费用户 , 函数调用 , 分岔趋势 , 功能集成 , 参数未公开 , 台式机模型 , 合作伙伴 , 商业模型 , 商业策略 , 大模型市场 , 大模型替代 , 封禁中国IP , 小模型 , 小模型效能 , 工作流 , 工作站级别 , 市场占有率 , 市场反馈 , 市场竞争 , 市场趋势 , 市场需求 , 应用开发 , 开源模型 , 微型模型 , 技术优势 , 技术创新 , 技术挑战 , 技术程度 , 技术进步 , 技术领先 , 数据调用 , 未来计划 , 本地部署 , 模型升级 , 模型性能 , 浏览器插件 , 用户体验 , 用户分叉 , 用户反馈 , 用户吸引力 , 用户满意度 , 用户粘度 , 用户需求 , 田忌赛马 , 移动端模型 , 竞争对手 , 竞争策略 , 端侧使用 , 端侧竞争 , 经济考量 , 经济高效 , 视觉多模态识别 , 训练成本 , 谷歌Gemini Flash , 输入100万TOKEN , 输出100万TOKEN , 高性能模型 , 高效模型
VIDEO
OpenAI在封禁中国IP访问其API之后,第一个大动作居然是发布了一个GPT4o mini。你发布了个小模型,这究竟是要卷死谁啊?中国团队是不是有机会弯道超车呢?大家好,这里是老范讲故事YouTube频道。Open AI第一次发布微型模型,以前的Open AI都是一个比一个大,因为原来人家讲的叫Scaring Law,就是这种伸缩法则,只要是变大,我一定会变强。而且,也嘲笑那些小模型说你们肯定不行啊,一定是大的好使。我自己原来也是很喜欢使用大模型,有大的不识小的,这是我原来挑选模型时候的基本原则。但是现在,Open AI开始卷小模型了。
Open AI的这个GPT4O mini有什么特点呢?第一个,快啊,小模型一定是比大模型跑得快的。另外,就是极其便宜,它这个里面输入的信息,100万TOKEN,15美分啊,非常非常便宜了。输出的信息呢,是100万TOKEN,60美分,也就相当于是100万4块多人民币啊,已经快要接近国内的这些模型的价格了。效能呢,也应该是比GPT3.5要强一些啊,这是GPT4O MINI的一个基本情况。
那么,这样的一个鼓励越大越好的公司,原来更多的人力肯定是去研究更大的模型去了。现在说不,我要上一个小的,而且这种小模型呢,跟一般的小模型还有区别。区别在于它可以支持Function Call,可以支持视觉多模态的识别。那么,这是GPT4O MINI比其他的普通小模型所独有的特点。
More
6 月 04
Luke Fan AIGC , 英伟达,黄仁勋的故事 1.8万亿参数 , 2.7万亿美金 , AI , AIPC , AI工厂 , AI工厂时代 , AR , Blackware , COMPUTEX , GPT-4 , GPT4 , GPU , GPU技术大会 , GPU核心 , GTC , H1 , H100 , MoE , NVIDIA , NVlink , RTX , scoring low , SERVER , stable diffusion , TOKEN , TX , VR , 云计算 , 人工智能 , 内存 , 军备竞赛 , 分析 , 参数 , 参数量 , 台积电 , 合作伙伴 , 商业 , 垄断地位 , 大模型 , 工程师 , 市值 , 应用开发 , 开发者 , 微软 , 戴尔 , 技术大会 , 投资人 , 推理 , 推理能耗 , 支架 , 数据中心 , 显卡 , 机器人 , 机箱 , 模型 , 模型训练 , 游戏助手 , 版本 , 生态链 , 用户 , 硬件 , 科技 , 移动互联网 , 竞争 , 竞争对手 , 竞争者 , 算力 , 算力成本 , 算力芯片 , 缩放定律 , 股价 , 能耗 , 芯片 , 英伟达 , 苹果 , 行业秘密 , 计算机 , 计算机大会 , 训练能耗 , 设计 , 谷歌 , 贷宽 , 超威 , 车载芯片 , 软件 , 铁皮 , 黄仁勋
VIDEO
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More