10 月 08
Luke FanAIGC AI Agent, AI商业变现, AI开发者, AI硬件, Apps SDK, ChatGPT, ChatGPT操作系统, Codex, GPT-5 Pro API, OpenAI, OpenAI DevDay, OpenAI生态, Sam Altman, Sora 2 API, 人工智能未来, 全栈AI, 多模态AI, 小程序开发, 技术趋势分析, 股价影响, 自然语言编程, 行业领袖, 语音交互
OpenAI开发者日,暴露了山姆·奥特曼的隐藏野心。
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们先讲结论,然后告诉大家我怎么得出这样的结论,验证一下这个结论是否正确,再让大家行动起来,看看咱们在山姆·奥特曼指明方向以后,到底能干点什么。
OpenAI的开发者日呢,隐藏在发布会背后的野心和方向到底是什么?表面上这东西咱就不重复了,说到底发布了什么东西,只讲结论。
第一个,ChatGPT要做操作系统了。
第二个,自然语言和语音交互才是未来。
第三个,全栈、全生态、全模态的开发都在OpenAI。
有三个大的结论。
那咱们怎么得到这样的结论的呢?咱们看发布会,要稍微换一个方向来看。我自己呢,举办、参加过很多发布会,也专门受过训练,主持过发布会。咱们发布会一般看什么呢?叫“wow时刻”,一看这个东西,“wow,好厉害”,叫“wow时刻”。在52分钟的发布会视频里头,有哪些“Wow时刻”呢?那你说我是不是拿了个纸、拿了个笔,52分钟的发布会反复看,在这记笔记,哪个地方有掌声?不是这样的。我到GPT里边直接下了一个指令,把YouTube的视频链接贴进去,我说:“请给我统计一下,什么时候有掌声,掌声中度还是高度,有掌声的时候是谁在演讲,在讲什么,给我画个表格出来。”剩下的事情就交给GPT去干了,效果还是很好的。
More
12 月 18
范, 路AIGC 000美金订阅, 200美金AI套餐, AI 价值收费, AI 创新驱动, AI 消费者选择, AI 科技助力, AI 经济模式, AI与Token收费, AI与个体经济, AI与企业保护, AI与企业研究, AI与劳动法, AI与协作, AI与护城河, AI与教育, AI与数据隐私, AI与经济转型, AI个人效率, AI个体经济, AI全天候, AI共享使用, AI助力企业, AI助力研究, AI助力自由职业, AI助手优势, AI助手对比博士生, AI助手怎么用, AI助手性价比, AI助手未来趋势, AI助手订阅, AI博士水平, AI取代真人, AI商业模式, AI在企业中, AI在公司运用, AI在社会创新, AI学习能力, AI对比真人博士, AI工作模式, AI帮助生产效率, AI改变竞争, AI效率, AI效率对比, AI效率提升, AI无情绪, AI时代, AI智能订阅套餐, AI研究能力, AI轮番使用, AI辅助研究, AI降低成本, AI预测未来, 人工智能未来, 全球博士生薪资, 博士AI成本效益, 博士工资对比, 博士生导师, 博士生替代, 博士级AI功能, 博士级AI助手, 未来AI社会, 未来工作场景, 科技革新, 经济模式变革, 自由职业者AI, 超级个体
2,000美金一个月的博士水平的AI助手,真的会有人去雇佣吗?大家好,欢迎收听老范讲故事的YouTube频道。这是谁说的呢?OpenAI的CFO,应该叫Sarah Friar。他提出来的,说我们已经准备了更强大的AI助手了,准备收更多的钱。
大家注意,OpenAI原来的ChatGPT是20美金一个月。我现在就是这样,20美金一个月的Plus用户。最近又推出了200美金一个月的O1 Pro用户,主要是在上面使用O1的这种更强的推理模型的。当然,我并没有去订阅这个,只是我的会员频道里,好像有一些朋友准备去做这块的订阅了,因为他们在写论文,确实是有用的。
O1 Pro用不到的话,200美金的Sora还是有用的。就是你如果订了200美金,Sora是允许你画更多的视频出来的。还有一个很重要的事情,我今天上Sora去画视频的时候被拒绝了,因为我提的提示词里边要求有人。我的账号是不能够画有人的视频的,必须是200美金以上的账号才可以生成带有人物的视频。今天又被人歧视了一下。
More
10 月 22
Luke FanAIGC, 字节跳动,故事多 AIGC可信度, AI协作, AI可信性, AI大模型, AI安全, AI工程风险, AI技术挑战, AI系统, ByteDance, Huggingface平台, Huggingface漏洞, IT业界新闻, IT内鬼, IT安全, IT安全策略, IT工程, IT灾难恢复, PyTorch修改, Pytorch集群, 人员管理挑战, 人工智能实习生, 人工智能未来, 人工智能治理, 人工智能管理, 人工智能风险, 人机协作, 代码安全, 代码漏洞, 代码管理, 代码隐患, 企业损失, 企业数据, 企业风险管理, 信任危机, 前沿科技, 大数据安全, 大模型开发, 安全事件, 安全漏洞, 安全管理, 安全评估, 实习事故, 实习生, 实习生影响, 实习生投毒, 工程信任, 工程漏洞, 工程管理, 开发者风险, 开源开放, 开源系统, 恶意代码, 技术创新, 技术应用, 技术治理, 投毒事件, 操作风险, 故障排除, 数千万美元, 数字化管理, 数字时代, 数据保密, 数据分析, 数据攻击, 数据污染, 数据泄露, 数据隐患, 未来合作挑战, 模型参数扰动, 渗透测试, 现代技术治理, 系统攻击, 系统漏洞, 系统脆弱性, 网络安全, 训练模型, 黑客攻击, 黑客风险
ByteDance的AI大模型被他们自己家的实习生投毒。这是一个什么故事?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲这起投毒事件。不是说举个小药瓶去投毒,而是恶意代码投毒。
事情发生在6月份,一位姓田的博士生在ByteDance实习。因为某些待遇或者资源分配问题,他对ByteDance感觉不满,于是就在代码里面进行了投毒。投毒的方式是他自己进行了一些代码维护,但这些代码是安全的,主要是一些调试用的代码。这些代码去读取一些上传文件之后,就具备了攻击性。
什么意思呢?就是我们去训练大模型的时候,需要把大量的信息数据上传到大模型进行训练。他的这种调试代码上传到服务器上以后,这个时候还是安全的,然后把一些恶意代码隐藏在训练数据里边。他把这些数据读出来以后,就对整个ByteDance的一些训练集群进行了攻击。这其实是黑客普遍采用的一些手段。
More