11 月 29
范, 路AIGC AI工具, AI应用, DALL-E 3, Hugging Face, Open AI, SEO优化, Sora大模型, Turbo版本, 业内动态, 互动媒体, 产品发布, 人工智能, 企业创新, 企业合作, 保密协议, 公关策略, 内容优化, 内容匹配, 内容变现, 内容审核, 内容生成, 内容策略, 内容质量, 创意合作伙伴, 创意平台, 动态内容, 可控性, 品牌保护, 图像生成, 在线工具, 在线编辑工具, 媒体传播, 媒体内容, 媒体整合, 媒体营销, 实时生成, 宣传策略, 市场趋势, 平台发展, 平台生态, 开发者社区, 开源合作, 影视行业, 技术产业, 技术创新, 技术对比, 技术开发, 技术挑战, 技术突破, 挑战与机遇, 效果展示, 数字人, 数字媒体, 数据处理, 数据安全, 未来科技, 模型参数, 模型训练, 法律风险, 深度学习, 版权纠纷, 生成模型, 用户交互, 用户体验, 知识产权, 社交媒体策略, 社交影响, 算力成本, 线上互动, 自动化处理, 艺术家, 艺术表现力, 行业先锋, 覆盖范围, 视觉创意, 视觉效果, 视频内容, 视频安全性, 视频模型, 视频流, 视频特效, 视频生成, 视频生成技术, 视频生成潜力, 视频编辑, 视频风格, 计算机视觉, 语音合成, 跨平台使用, 跨文化传播, 身份验证, 高成本
昨天,Sora短暂的泄露。但是,我们真的还需要等待Sora吗?大家好,欢迎收听老范讲故事的YouTube频道。在今年2月份,Open AI公布了他们的Sora大模型之后,大家一直在等待这个产品的正式发布。但是,等到了现在,已经到年底了。很多跟随Sora的产品都已经上线,都已经有很多用户开始使用了,Sora自己还遥遥无期。
在这样的一个时间点里,突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去,短暂的开放了一段时间。这些艺术家呢,还发表了一封公开信,表达了自己对于Open AI的各种剥削的不满。Open AI呢,及时发现,在一小时之后封闭了接口,说你们就到这吧;然后也出来做了一些解释,表示这些艺术家们都是跟我们一起去合作的,他们都是自愿参加的,没有什么强迫。大概也是讲了一些这种片汤话。
至于Sora什么时候能发布,人家也没有再继续提供更进一步的信息。那么,这一次泄露出来的呢,是Sora的Turbo版本。Turbo是轻量级快速的版本,就是不是一个全尺寸的模型,参数呢也并不是很突出。2月份,Sora当时号称自己是世界模型,可以仿真出世界来的,当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处,超过一分钟都属于超长镜头,电影里头用这种镜头其实也不是那么多。这一次呢,只提供了1080P、720P、360P三种的分辨率,然后时长呢就是5到10秒钟。其实跟我们现在可以使用到的大量的这种视频生成模型参数是一样的,现在的视频生成模型基本上都是5到10秒钟。
More
10 月 15
Luke Fan字节跳动,故事多 20亿美金投入, AI发展, AI审核, AI模型, TikTok, 上市准备, 业务扩张, 中美关系, 互联网发展, 产品控制, 产品整合, 人事调整, 人力成本, 人工效率, 人工智能, 企业估值, 企业内控, 企业战略, 企业文化, 企业架构, 信息安全, 信息流通, 全球动向, 全球市场, 全球布局, 全球视野, 公司策略, 内容合规, 内容审核, 内容过滤, 合作伙伴, 合规管理, 员工调整, 商业模式, 国内团队, 国际业务, 字节跳动, 宏观经济, 审核团队, 就地审核, 工程方式, 市场份额, 市场动态, 市场竞争, 平台监管, 应用场景, 快速传播, 成本控制, 技术创新, 技术升级, 技术壁垒, 技术革新, 投诉机制, 抖音, 数字化转型, 数据保护, 数据处理, 数据隐私, 新加坡总部, 时间协同, 模型应用, 法律法规, 法规合理化, 法规要求, 用户体验, 知识产权, 破解法律, 社交媒体, 社会责任, 福利国家, 科技博主, 程序开发, 算力成本, 管理总部, 纽约时区, 聘用政策, 英语审核, 行业标准, 行业趋势, 视频标签, 资源调配, 资源配置, 运营模式, 雇佣政策, 风险管理, 马来西亚, 马来西亚裁员
字节跳动在马来西亚开启了大裁员。这是什么样的情况?大家好,这里是老范讲故事的YouTube频道。近期传出消息,字节跳动在马来西亚裁撤了700名员工,而这些员工主要从事的是内容审核相关的工作。
现在字节跳动也出面回应,表示:“我们确实进行了裁员,而且我们要去改变内容审核的方式,更多地依赖AI进行审核,而不是人工进行审核。”当然,字节跳动肯定还要出来立一个牌子,表示我们准备一年投入20亿美金。这一定是一个很巨大的数字,让大家看到诚意。那么,我们要投入20亿美金干嘛呢?在全球范围内进行内容审核,确保我们的内容质量以及一些安全的内容被传播。
那么,这个裁员背后到底有什么含义呢?首先,大家要想一个问题:马来西亚有700名内容审核员工,这些人审核的内容都是来自于马来西亚吗?这肯定是不可能的。马来西亚一共几千万人,他需要700个人坐在这里做内容审核吗?这个不会的。那么,马来西亚的700名内容审核人员审核的内容是哪来的呢?其实是来自于全球的TikTok用户,至少是英语用户,应该都是在这里进行审核的。
More
9 月 09
Luke FanAIGC 2000美元每月, AIGC, AI发展, AI算法, Anthropic, API, ChatGPT, Gemini, Information, iPhone良品率, OpenAI, OpenAI团队, Orin猎户座模型, Q星算法, Scaling law, TOKEN费用, 上市, 主权大模型, 云计算, 人工智能, 人才招聘, 价格上涨, 传闻, 信息传播, 印度制造, 合成数据, 合成数据训练, 商业合作, 商业模式, 国有化, 大模型, 大模型训练, 安全成本, 富士康, 幻觉, 微软, 拉玛模型, 数据处理, 数据枯竭, 数据清理, 数据生成, 显卡, 显卡销售, 未来展望, 未来方向, 模型成本, 盈亏平衡, 盈利模式, 科技创新, 科技媒体, 科技新闻, 科技趋势, 算力中心, 算力成本, 英伟达, 草莓算法, 融资, 行业分析, 行业领导者, 谷歌, 连年亏损, 高智商犯罪, 黄仁勋
2,000美元一个月的ChatGPT还会有人用吗?
大家好,这里是老范讲故事的YouTube频道。
今天咱们来讲一讲OpenAI有可能给ChatGPT涨价的事情。消息哪来的?国外著名科技媒体Information上报道,OpenAI因为连年的亏损,而且新的模型成本快速上涨,所以有可能给ChatGPT涨价。涨多少呢?他们也是搜集了很多的信息以后,判定有可能会涨到100倍,也就是2,000美元一个月。这是不是幻觉呢?大概率是。
那你说Information上面怎么会有幻觉呢?需要注意,Information上面也是说,我们根据各种信息总结出来以后,有一种声音提到有可能会涨100倍。具体是哪个涨100倍并没有说。到底是每个月这个20美金的订阅费用涨100倍,还是说TOKEN的费用,或者其他的一些商业合作的费用,涨到100倍都没有说。而到底是涨100倍,还是说按照这样的一个级别去涨,现在也没有讲清楚。所以只是说,我们根据传言得到了这样的一个消息,这就算是一个幻觉。
咱们再讲一个幻觉的故事。前面有人提到,印度产的iPhone良品率只有50%。后来被富士康的人出来辟谣,说没有那么差。如果良品率只有50%,苹果也受不了。其实印度产的iPhone良品率比中国的低10%。郑州富士康的iPhone良品率大概是96%,印度大概是85%或者86%这样的一个水平,其实依然是可以接受的。
More
6 月 04
Luke FanAIGC, 英伟达,黄仁勋的故事 1.8万亿参数, 2.7万亿美金, AI, AIPC, AI工厂, AI工厂时代, AR, Blackware, COMPUTEX, GPT-4, GPT4, GPU, GPU技术大会, GPU核心, GTC, H1, H100, MoE, NVIDIA, NVlink, RTX, scoring low, SERVER, stable diffusion, TOKEN, TX, VR, 云计算, 人工智能, 内存, 军备竞赛, 分析, 参数, 参数量, 台积电, 合作伙伴, 商业, 垄断地位, 大模型, 工程师, 市值, 应用开发, 开发者, 微软, 戴尔, 技术大会, 投资人, 推理, 推理能耗, 支架, 数据中心, 显卡, 机器人, 机箱, 模型, 模型训练, 游戏助手, 版本, 生态链, 用户, 硬件, 科技, 移动互联网, 竞争, 竞争对手, 竞争者, 算力, 算力成本, 算力芯片, 缩放定律, 股价, 能耗, 芯片, 英伟达, 苹果, 行业秘密, 计算机, 计算机大会, 训练能耗, 设计, 谷歌, 贷宽, 超威, 车载芯片, 软件, 铁皮, 黄仁勋
大家好,欢迎收听老范讲故事YouTube频道。今天,咱们来讲一讲黄仁勋在COMPUTEX上的狂欢。COMPUTEX是一年一度在台湾举行的计算机大会。黄仁勋,作为现在真正AI时代的当红炸子机,可能是唯一靠AI赚了大钱的人。虽然微软也在赚钱,但是微软整个靠AI挣的钱并没有那么多。真正靠AI赚了大钱的公司只有他一家——英伟达。刚才我看了一下,英伟达现在市值2.7万亿美金。大家知道,再往前就是微软的3.2万亿,第二名是苹果,2.9万亿,还差那么一点点。可能稍微一哆嗦,英伟达就有可能成为世界第二市值的公司了。那么,黄仁勋上面都讲了什么呢?作为网红,肯定还要先暴露一下行业秘密,别人都不知道他知道的事情。上来先说一下他现在讲的是什么——就是GPT-4到底有多少参数。GPT-3.5大家知道是1,700多亿参数,就是一个170多亿级别的模型。但是到GPT-4的时候,OpenAI就再也没有出来说它到底有多少参数。很多人说你是不是超过万亿了,对OpenAI来说,这个数据不是很准确。我来辟谣了,但是具体有多少,从来没有讲过。黄仁勋在前面的GTC,就是GPU技术大会上,每年一次的英伟达自己的开发者大会上,上面也讲了……
说起来1.8T,这个1.8T指的是什么呢?其实就是1.8万亿参数,而且它是一个Moe模型。当时OpenAI并没有对此多说什么,但这一次,在《Computer Text》上,他们又反复强调了这个事情,明确指出GPT-4的训练参数达到了1.8T。这让人们意识到,想要达到GPT-4的水平,还有很长的路要走。尽管现在大家都在努力研发号称能达到或接近GPT-4水平的模型,比如几百亿参数的模型,比如梅塔的拉马3可能会有一个400亿参数的模型,国内也出现了很多一两百亿参数的模型。但事实是,即使提到的1.8T参数,如果考虑到是Moe模型,分成八份来看,那么单个模型可能也就相当于200多亿参数的水平。
More