11 月 29
范, 路AIGC AI工具, AI应用, DALL-E 3, Hugging Face, Open AI, SEO优化, Sora大模型, Turbo版本, 业内动态, 互动媒体, 产品发布, 人工智能, 企业创新, 企业合作, 保密协议, 公关策略, 内容优化, 内容匹配, 内容变现, 内容审核, 内容生成, 内容策略, 内容质量, 创意合作伙伴, 创意平台, 动态内容, 可控性, 品牌保护, 图像生成, 在线工具, 在线编辑工具, 媒体传播, 媒体内容, 媒体整合, 媒体营销, 实时生成, 宣传策略, 市场趋势, 平台发展, 平台生态, 开发者社区, 开源合作, 影视行业, 技术产业, 技术创新, 技术对比, 技术开发, 技术挑战, 技术突破, 挑战与机遇, 效果展示, 数字人, 数字媒体, 数据处理, 数据安全, 未来科技, 模型参数, 模型训练, 法律风险, 深度学习, 版权纠纷, 生成模型, 用户交互, 用户体验, 知识产权, 社交媒体策略, 社交影响, 算力成本, 线上互动, 自动化处理, 艺术家, 艺术表现力, 行业先锋, 覆盖范围, 视觉创意, 视觉效果, 视频内容, 视频安全性, 视频模型, 视频流, 视频特效, 视频生成, 视频生成技术, 视频生成潜力, 视频编辑, 视频风格, 计算机视觉, 语音合成, 跨平台使用, 跨文化传播, 身份验证, 高成本
昨天,Sora短暂的泄露。但是,我们真的还需要等待Sora吗?大家好,欢迎收听老范讲故事的YouTube频道。在今年2月份,Open AI公布了他们的Sora大模型之后,大家一直在等待这个产品的正式发布。但是,等到了现在,已经到年底了。很多跟随Sora的产品都已经上线,都已经有很多用户开始使用了,Sora自己还遥遥无期。
在这样的一个时间点里,突然有一群艺术家将Sora的这个接口公开到了Hugging Face上面去,短暂的开放了一段时间。这些艺术家呢,还发表了一封公开信,表达了自己对于Open AI的各种剥削的不满。Open AI呢,及时发现,在一小时之后封闭了接口,说你们就到这吧;然后也出来做了一些解释,表示这些艺术家们都是跟我们一起去合作的,他们都是自愿参加的,没有什么强迫。大概也是讲了一些这种片汤话。
至于Sora什么时候能发布,人家也没有再继续提供更进一步的信息。那么,这一次泄露出来的呢,是Sora的Turbo版本。Turbo是轻量级快速的版本,就是不是一个全尺寸的模型,参数呢也并不是很突出。2月份,Sora当时号称自己是世界模型,可以仿真出世界来的,当时是可以出一分钟的视频的。虽然一分钟视频并没有那么大的用处,超过一分钟都属于超长镜头,电影里头用这种镜头其实也不是那么多。这一次呢,只提供了1080P、720P、360P三种的分辨率,然后时长呢就是5到10秒钟。其实跟我们现在可以使用到的大量的这种视频生成模型参数是一样的,现在的视频生成模型基本上都是5到10秒钟。
More
6 月 25
Luke FanAIGC AI安全, AI拼凑内容, AI生成内容, AI生成内容监管, AI生成垃圾内容, AI越狱, AI造假, Daniel Goose, Daniel Levy, H100 GPU, Safe Superintelligence, SEO优化, SEO骗流量, 上市, 中立性, 临时技术措施, 二维码溯源, 以色列裔加拿大人, 伊利尔, 优先使用, 信息孤岛, 信息溯源, 信息真实性, 内容甄别, 内容过滤, 可信媒体, 可控性, 商业压力, 多模态识别, 大企业赋能, 大模型, 大模型安全问题, 大模型训练, 安全公司, 安全协议, 安全定义, 安全实验室, 安全检测, 安全检测模型, 安全防护, 安全防护功能, 实验室, 工程突破, 工程能力, 平台处罚, 幻觉生成, 开源大模型, 开源模型检测, 执行者, 承诺, 技术问题, 拉玛2数据, 拉玛3训练, 攻击防护, 政府赋能, 数据处理, 数据生成, 数据训练, 数据质量, 数据预处理, 未来环境, 标准制定者, 核不扩散, 核不扩散协议, 核安全, 核武器, 核武器使用, 模型尺寸, 模型领域, 流量变现, 焦虑营销, 环境安全, 科学突破, 算力资源, 组织架构, 股民服务, 视频验证, 资本压制, 超级智能, 输入检测, 输出检测, 量变质变, 非盈利组织, 骗流量, 骗补贴
伊利尔在创业,他的公司叫做Safe Superintelligence(安全超级智能)。这个公司的主要业务是什么呢?目前,公司由三个人组成,分别是伊利尔、Daniel Goose和Daniel Levy。伊利尔是一位以色列裔加拿大人,他精通俄语、希伯来语和英语。Daniel Goose是一位以色列企业家和投资人,而Daniel Levy是伊利尔的旧部。
在人才和算力方面,Safe Superintelligence也非常强大。Daniel Gross和Knight Fragman联合创立了算力云,他们拥有3000块H100。有趣的是,他们还可以使用五吨重的H100,因为每块H100的重量超过一公斤,所以3000块H100大约有五吨重。另外,文章中还提到了一个有趣的名字,叫做Knight Fragman,他是之前的Get Have公司的CEO。去年11月,董事会将山姆奥特曼解雇后,他接任了CEO一职。
说我们要请一个临时CEO来,就是这个叫Matt Fredman。他请来了以后说:“啊,我诚惶诚恐啊,你们想怎么干啊,咱们接着干。”等山姆奥特曼回归了以后,他就走了。他是跟Daniel Grusse联合创立了算力允啊,现在Daniel Grusse是投资和参与了伊利尔新的公司SSI,大概是这样的一个关系。那你说,现在已经有算例了啊,有人才了,那数据哪来呢?现在的数据其实比以前要好获得的多。为什么呢?因为现在可以直接让大模型生成数据,这样的话质量更高,可控性更强。像拉玛3的训练,实际上就是用大量的拉玛2来直接进行数据处理,数据预处理以及数据生成啊。那么,他就可以训练出这么厉害的拉玛3来。现在伊利尔估计也会走这条路,人有了算了,也有了啊,数据呢也有了。那么到底什么是安全啊?说他跟山姆奥特曼吵架的原因是因为他觉得山姆奥特曼做的东西不安全,而且不安全是非常危险的,会对人类造成损害。说不,我要出去,我要做一个安全的,而且叫安全超级智能,对吧?怎么叫安全呢?实际上,现在的安全需要重新去定义了。我们所说的安全啊,是像核安全那样的安全,而不是信任核安全那样的安全。这个是伊利尔讲的原话。那我们来想想,什么样的东西是像核安全一样管理?核安全到底是怎么管理的?第一个,我们来对所有的数据进行记录。
一共有多少颗核弹都得记上,哪颗核弹在什么地方,全世界的人都得知道。哎,不能说哪多出一颗核弹来,这是不允许的,至少大的是不允许的。然后呢,还要有这种叫核不扩散的协议,而且还要有各种承诺,说哎,我们啊承诺不优先使用核武器,而且知道核武器这个东西一旦使用了以后,对整个的人类,对整个未来的环境和很长一个时间都是有巨大伤害的。这个是核安全,而这种信任核安全呢就是说,我相信你不会干坏事啊,至于你以后万一干了次坏事呢,我还可以再原谅你几次。这个是信任和安全。所以伊利尔呢是准备把AI安全作为核安全的方式来去管理的。那大家想一想,他会怎么来管这个事情,如何做到安全呢?伊利尔讲了,说我们只有一个目标和产品,就是做这安全超级AI,不会去做APP也不会做什么这些东西啊,而且呢没有时间和财务上的压力。现在呢他讲把OpenAI搞成这样,为什么呢?啊是因为有财务压力,你需要烧更多的钱,你必须要不停的再去融资,像我们以前也讲,你只要开始拿投资人的钱了,开始融资了,就相当于是在脖子上套了一条枷锁,对吧,投资人会催着你往前跑的,他会有时间和财务上的压力。伊丽尔说我没有啊,我就耐心做这个产品,而且呢他是希望通过工程突破,而不是各种临时技术措施,来去保证安全啊。大家注意啊。
伊利尔本身既是一位科学家,也是一位工程大师。他致力于将安全和能力视为技术问题,并通过革命性的工程和科学突破来解决这些问题。他希望能够直接解决安全问题,而不是仅仅通过打补丁等临时性技术措施来解决。他的工程能力使他能够实现量变达到质变,从而成为一个工程大师的典范。他的大模型是一个工程学方面的案例,通过堆积更多的参数和数据,他能够获得不同的结果。伊利尔提出的规模法则,即”scaring low”,指出只要扩大模型,就会获得不同的效果。他的发明和创造力使他成为一个大力出奇迹的发明人。
More