12 月 29
Luke FanAIGC AGI, AGI实现协议, AGI标准, AI安全, OpenAI, OpenAI估值, OpenAI困境, OpenAI年终奖计划, OpenAI新压力, OpenAI未来发展, OpenAI盈利, OpenAI盈利挑战, OpenAI股票, OpenAI股票估值, OpenAI行业压力, OpenAI资金问题, OpenAI转型挑战, 公益性公司治理, 公益性公司股东, 大模型, 大模型盈利模式, 山姆奥特曼, 年终奖, 微软, 微软AI计划, 微软云服务, 微软合作, 微软合作条款, 微软技术协议, 微软技术独占, 微软未来计划, 微软权利, 微软独占权利, 微软独家协议, 微软股份, 扎克伯格, 技术使用权, 收益分配, 期权兑现, 梅塔, 特拉华公益公司, 特拉华法律, 特拉华法案, 独家云计算, 盈利模式, 科技行业领军, 老股出售, 职业经理人, 股票期权, 行业发展, 行业投资, 行业竞争, 行业舆论压力, 行业规则, 行业资产估值, 行业领军公司, 行业龙头难题, 谷歌, 谷歌竞争, 谷歌竞争压力, 转型架构, 软银, 软银投资战略, 软银收购, 软银资金注入, 通用人工智能, 通用人工智能盈利, 非盈利VS盈利, 非盈利利益冲突, 非盈利盈利冲突, 非盈利组织, 非盈利结构调整, 马斯克诉讼, 马斯克起诉
山姆奥特曼开始给OpenAI解套了。全世界的人都在关注一个问题,就是OpenAI这样的一个AIGC里边领军人物,到底如何从非营利组织这个套里边解出来。在2024年的年底,这个事情终于开始有了进展。
大家好,欢迎收听老范讲故事的YouTube频道。咱们今天来讲一讲到年底了,OpenAI到底如何解套的事情。那么OpenAI这样的一个公司,在解套之前,肯定要先做一些准备工作。什么呢?“攘外必先安内”,这个怎么个做法?发年终奖嘛。
只是OpenAI的年终奖发的方式呢,稍微有一点点奇怪。他呢是通过卖老股的方式来发年终奖的。你说我现在OpenAI挣了一堆钱,给大家分一分?没有,OpenAI还在亏损,而且每年亏的还很厉害。但是呢,他招聘的时候发了很多的期权和股票出去。那么现在说:“哎,我们允许这些老员工可以卖掉一部分。”这样的话就可以稳定军心。
More
10 月 22
Luke FanAIGC, 字节跳动,故事多 AIGC可信度, AI协作, AI可信性, AI大模型, AI安全, AI工程风险, AI技术挑战, AI系统, ByteDance, Huggingface平台, Huggingface漏洞, IT业界新闻, IT内鬼, IT安全, IT安全策略, IT工程, IT灾难恢复, PyTorch修改, Pytorch集群, 人员管理挑战, 人工智能实习生, 人工智能未来, 人工智能治理, 人工智能管理, 人工智能风险, 人机协作, 代码安全, 代码漏洞, 代码管理, 代码隐患, 企业损失, 企业数据, 企业风险管理, 信任危机, 前沿科技, 大数据安全, 大模型开发, 安全事件, 安全漏洞, 安全管理, 安全评估, 实习事故, 实习生, 实习生影响, 实习生投毒, 工程信任, 工程漏洞, 工程管理, 开发者风险, 开源开放, 开源系统, 恶意代码, 技术创新, 技术应用, 技术治理, 投毒事件, 操作风险, 故障排除, 数千万美元, 数字化管理, 数字时代, 数据保密, 数据分析, 数据攻击, 数据污染, 数据泄露, 数据隐患, 未来合作挑战, 模型参数扰动, 渗透测试, 现代技术治理, 系统攻击, 系统漏洞, 系统脆弱性, 网络安全, 训练模型, 黑客攻击, 黑客风险
ByteDance的AI大模型被他们自己家的实习生投毒。这是一个什么故事?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲这起投毒事件。不是说举个小药瓶去投毒,而是恶意代码投毒。
事情发生在6月份,一位姓田的博士生在ByteDance实习。因为某些待遇或者资源分配问题,他对ByteDance感觉不满,于是就在代码里面进行了投毒。投毒的方式是他自己进行了一些代码维护,但这些代码是安全的,主要是一些调试用的代码。这些代码去读取一些上传文件之后,就具备了攻击性。
什么意思呢?就是我们去训练大模型的时候,需要把大量的信息数据上传到大模型进行训练。他的这种调试代码上传到服务器上以后,这个时候还是安全的,然后把一些恶意代码隐藏在训练数据里边。他把这些数据读出来以后,就对整个ByteDance的一些训练集群进行了攻击。这其实是黑客普遍采用的一些手段。
More
6 月 25
Luke FanAIGC AI安全, AI拼凑内容, AI生成内容, AI生成内容监管, AI生成垃圾内容, AI越狱, AI造假, Daniel Goose, Daniel Levy, H100 GPU, Safe Superintelligence, SEO优化, SEO骗流量, 上市, 中立性, 临时技术措施, 二维码溯源, 以色列裔加拿大人, 伊利尔, 优先使用, 信息孤岛, 信息溯源, 信息真实性, 内容甄别, 内容过滤, 可信媒体, 可控性, 商业压力, 多模态识别, 大企业赋能, 大模型, 大模型安全问题, 大模型训练, 安全公司, 安全协议, 安全定义, 安全实验室, 安全检测, 安全检测模型, 安全防护, 安全防护功能, 实验室, 工程突破, 工程能力, 平台处罚, 幻觉生成, 开源大模型, 开源模型检测, 执行者, 承诺, 技术问题, 拉玛2数据, 拉玛3训练, 攻击防护, 政府赋能, 数据处理, 数据生成, 数据训练, 数据质量, 数据预处理, 未来环境, 标准制定者, 核不扩散, 核不扩散协议, 核安全, 核武器, 核武器使用, 模型尺寸, 模型领域, 流量变现, 焦虑营销, 环境安全, 科学突破, 算力资源, 组织架构, 股民服务, 视频验证, 资本压制, 超级智能, 输入检测, 输出检测, 量变质变, 非盈利组织, 骗流量, 骗补贴
伊利尔在创业,他的公司叫做Safe Superintelligence(安全超级智能)。这个公司的主要业务是什么呢?目前,公司由三个人组成,分别是伊利尔、Daniel Goose和Daniel Levy。伊利尔是一位以色列裔加拿大人,他精通俄语、希伯来语和英语。Daniel Goose是一位以色列企业家和投资人,而Daniel Levy是伊利尔的旧部。
在人才和算力方面,Safe Superintelligence也非常强大。Daniel Gross和Knight Fragman联合创立了算力云,他们拥有3000块H100。有趣的是,他们还可以使用五吨重的H100,因为每块H100的重量超过一公斤,所以3000块H100大约有五吨重。另外,文章中还提到了一个有趣的名字,叫做Knight Fragman,他是之前的Get Have公司的CEO。去年11月,董事会将山姆奥特曼解雇后,他接任了CEO一职。
说我们要请一个临时CEO来,就是这个叫Matt Fredman。他请来了以后说:“啊,我诚惶诚恐啊,你们想怎么干啊,咱们接着干。”等山姆奥特曼回归了以后,他就走了。他是跟Daniel Grusse联合创立了算力允啊,现在Daniel Grusse是投资和参与了伊利尔新的公司SSI,大概是这样的一个关系。那你说,现在已经有算例了啊,有人才了,那数据哪来呢?现在的数据其实比以前要好获得的多。为什么呢?因为现在可以直接让大模型生成数据,这样的话质量更高,可控性更强。像拉玛3的训练,实际上就是用大量的拉玛2来直接进行数据处理,数据预处理以及数据生成啊。那么,他就可以训练出这么厉害的拉玛3来。现在伊利尔估计也会走这条路,人有了算了,也有了啊,数据呢也有了。那么到底什么是安全啊?说他跟山姆奥特曼吵架的原因是因为他觉得山姆奥特曼做的东西不安全,而且不安全是非常危险的,会对人类造成损害。说不,我要出去,我要做一个安全的,而且叫安全超级智能,对吧?怎么叫安全呢?实际上,现在的安全需要重新去定义了。我们所说的安全啊,是像核安全那样的安全,而不是信任核安全那样的安全。这个是伊利尔讲的原话。那我们来想想,什么样的东西是像核安全一样管理?核安全到底是怎么管理的?第一个,我们来对所有的数据进行记录。
一共有多少颗核弹都得记上,哪颗核弹在什么地方,全世界的人都得知道。哎,不能说哪多出一颗核弹来,这是不允许的,至少大的是不允许的。然后呢,还要有这种叫核不扩散的协议,而且还要有各种承诺,说哎,我们啊承诺不优先使用核武器,而且知道核武器这个东西一旦使用了以后,对整个的人类,对整个未来的环境和很长一个时间都是有巨大伤害的。这个是核安全,而这种信任核安全呢就是说,我相信你不会干坏事啊,至于你以后万一干了次坏事呢,我还可以再原谅你几次。这个是信任和安全。所以伊利尔呢是准备把AI安全作为核安全的方式来去管理的。那大家想一想,他会怎么来管这个事情,如何做到安全呢?伊利尔讲了,说我们只有一个目标和产品,就是做这安全超级AI,不会去做APP也不会做什么这些东西啊,而且呢没有时间和财务上的压力。现在呢他讲把OpenAI搞成这样,为什么呢?啊是因为有财务压力,你需要烧更多的钱,你必须要不停的再去融资,像我们以前也讲,你只要开始拿投资人的钱了,开始融资了,就相当于是在脖子上套了一条枷锁,对吧,投资人会催着你往前跑的,他会有时间和财务上的压力。伊丽尔说我没有啊,我就耐心做这个产品,而且呢他是希望通过工程突破,而不是各种临时技术措施,来去保证安全啊。大家注意啊。
伊利尔本身既是一位科学家,也是一位工程大师。他致力于将安全和能力视为技术问题,并通过革命性的工程和科学突破来解决这些问题。他希望能够直接解决安全问题,而不是仅仅通过打补丁等临时性技术措施来解决。他的工程能力使他能够实现量变达到质变,从而成为一个工程大师的典范。他的大模型是一个工程学方面的案例,通过堆积更多的参数和数据,他能够获得不同的结果。伊利尔提出的规模法则,即”scaring low”,指出只要扩大模型,就会获得不同的效果。他的发明和创造力使他成为一个大力出奇迹的发明人。
More
5 月 21
Luke FanAIGC AI安全, AI监管, Anthropic, ChatGPT, Cloud, Gemini, GPT-2, GPT-4, Meta, OpenAI, XAI, 不许骂街协议, 亚马逊, 人工智能, 人类价值观, 伊利尔, 伦理, 宪法AI, 展望, 山姆奥特曼, 开源模型, 弱到强泛化, 微软, 拉玛3, 挑战, 政治正确, 期权, 未来, 机遇, 民间机构, 泄露公司机密, 社会, 科技, 端到端模型, 算力, 老范讲故事, 股票, 英伟达, 董事会, 视频生成, 语音到语音模型, 谷歌, 责任制, 超级对齐, 道德, 闭源模型, 非营利组织, 风险
大家好,欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲伊利尔彻底离开超级队,其团队解散,而OpenAI彻底失去束缚,可以一骑绝尘的事情。
从去年11月,山姆奥特曼突然被董事会开除,又经过了三四天戏剧般的反转,反转再反转之后,山姆奥特曼终于干掉了董事会,王者归来。从那以后,作为董事会里边唯一留任的伊利尔就再也没有出现在公众视野之中。很多人都在猜说这个人到底干嘛去了。
当时这个事情发生的时候,所有人就在猜测,说伊利尔是不是要离职,伊利尔什么时候离职啊。但是呢山姆奥特曼一直都是体现出政治家的这种手腕,一直在称呼伊利尔来为啊我最亲密的朋友。但是伊利尔呢一直没有发声。最近一次发生是在跟埃隆马斯克的诉讼过程中,由伊利尔的账号在里边说了一句话啊,但是也就仅此而已了。
伊利尔在这一段时间里他就彻底不见了,现在呢终于知道说啊他离职了啊,正式离职。而且呢根据已经从OpenAI里边离职的一些其他跟安全相关团队的啊,这些人去讲说伊雷尔从去年11月份到现在半年的时间就再也没有回到过OpenAI的办公室,一直是在进行远程工作,远程协调。对吧这个人等于就消失了,现在半年了啊终于离开了。
More