硕鼠的博客站

范路的博客主站,时而会发些东西。

Posts Tagged ‘安全公司’

GPT5如果再不出的话,可能就没有机会了。大家好,这里是老范讲故事的YOUT5频道。今天咱们来讲一讲OpenAI现在身上的压力到底有多大。再不出GPT5,可能真的要出事儿了,因为前面吹过的牛实在太多了,特别是Sola这样的模型,号称可以直接生成长的视频出来,到现在已经半年了,还没有真正拿出来,只是每个月放出几个视频而已。而其他各个公司,按照Sora方向做的产品,已经都开始在公众测试了,这对他们来说一定是巨大的压力。

前一段时间发布的Aceropic Claude 3.5 Sonnet,也把压力给到了OpenAI,因为这个模型的效果已经非常好,而且极其便宜。更不要说昨天刚刚发布的LlamaB这样的一个开源模型。前面咱们讲的Aceropic的模型还是闭源的,而Llama可是个开源模型。405B的话,在各个层次上,都赶超了OpenAI的Chat GPT-4。老大的位置有可能会丧失。

Read More…

微软Windows全世界蓝屏,这个事情以前我们也干过。大家好,欢迎收听老范讲故事的YouTube频道。今天,咱们来讲讲微软蓝屏到底是怎么回事。

到底什么叫蓝屏啊?咱们先讲一下。我们看到的各种照片,都是一个蓝色的屏幕。但是,现在这个蓝色要比以前好看啊。这个过程呢,其实叫dump。就是微软的Windows发生了不可逆的崩溃的时候,微软会把内存里边的所有数据写到硬盘上去。以便于什么呢?下一次重启的时候或者修复的时候,可以去查找原因。到底是什么原因造成的这一次崩溃啊?什么原因造成的这一次崩溃?以及呢,在下一次重启的时候,可以去恢复部分原来的运行状态啊。这是这样的一个功能。从Windows很早期,就有这样的这种淡薄功能。当然,那个时候的蓝色没有现在的好看啊。当时是一个很饱和的蓝色,现在应该是蓝、灰等各种颜色拼在一起的一个颜色。

软件崩溃,实际上这肯定软件还是有错误嘛。到底分几个层级呢?第一个层级啊,是软件可以自我修复。发现了错误,我们绕过去完事了啊。第二个层级呢,是系统可以隔离掉啊。这个软件坏了,但是我们系统可以把这个坏掉的软件隔离起来啊,不会影响其他的软件去运行。第三个层次,就是系统虽然隔离了这个故障的软件,但是呢,有部分的系统功能就无法工作了。比如说你没法联网了,或者没法去做一些打印啊,或者没法去调用某些数据了。这个也是有可能的啊,这就是更严重一些了。再然后是系统崩溃,就是我们刚才讲出蓝屏了啊。

Read More…

伊利尔在创业,他的公司叫做Safe Superintelligence(安全超级智能)。这个公司的主要业务是什么呢?目前,公司由三个人组成,分别是伊利尔、Daniel Goose和Daniel Levy。伊利尔是一位以色列裔加拿大人,他精通俄语、希伯来语和英语。Daniel Goose是一位以色列企业家和投资人,而Daniel Levy是伊利尔的旧部。

在人才和算力方面,Safe Superintelligence也非常强大。Daniel Gross和Knight Fragman联合创立了算力云,他们拥有3000块H100。有趣的是,他们还可以使用五吨重的H100,因为每块H100的重量超过一公斤,所以3000块H100大约有五吨重。另外,文章中还提到了一个有趣的名字,叫做Knight Fragman,他是之前的Get Have公司的CEO。去年11月,董事会将山姆奥特曼解雇后,他接任了CEO一职。


说我们要请一个临时CEO来,就是这个叫Matt Fredman。他请来了以后说:“啊,我诚惶诚恐啊,你们想怎么干啊,咱们接着干。”等山姆奥特曼回归了以后,他就走了。他是跟Daniel Grusse联合创立了算力允啊,现在Daniel Grusse是投资和参与了伊利尔新的公司SSI,大概是这样的一个关系。那你说,现在已经有算例了啊,有人才了,那数据哪来呢?现在的数据其实比以前要好获得的多。为什么呢?因为现在可以直接让大模型生成数据,这样的话质量更高,可控性更强。像拉玛3的训练,实际上就是用大量的拉玛2来直接进行数据处理,数据预处理以及数据生成啊。那么,他就可以训练出这么厉害的拉玛3来。现在伊利尔估计也会走这条路,人有了算了,也有了啊,数据呢也有了。那么到底什么是安全啊?说他跟山姆奥特曼吵架的原因是因为他觉得山姆奥特曼做的东西不安全,而且不安全是非常危险的,会对人类造成损害。说不,我要出去,我要做一个安全的,而且叫安全超级智能,对吧?怎么叫安全呢?实际上,现在的安全需要重新去定义了。我们所说的安全啊,是像核安全那样的安全,而不是信任核安全那样的安全。这个是伊利尔讲的原话。那我们来想想,什么样的东西是像核安全一样管理?核安全到底是怎么管理的?第一个,我们来对所有的数据进行记录。


一共有多少颗核弹都得记上,哪颗核弹在什么地方,全世界的人都得知道。哎,不能说哪多出一颗核弹来,这是不允许的,至少大的是不允许的。然后呢,还要有这种叫核不扩散的协议,而且还要有各种承诺,说哎,我们啊承诺不优先使用核武器,而且知道核武器这个东西一旦使用了以后,对整个的人类,对整个未来的环境和很长一个时间都是有巨大伤害的。这个是核安全,而这种信任核安全呢就是说,我相信你不会干坏事啊,至于你以后万一干了次坏事呢,我还可以再原谅你几次。这个是信任和安全。所以伊利尔呢是准备把AI安全作为核安全的方式来去管理的。那大家想一想,他会怎么来管这个事情,如何做到安全呢?伊利尔讲了,说我们只有一个目标和产品,就是做这安全超级AI,不会去做APP也不会做什么这些东西啊,而且呢没有时间和财务上的压力。现在呢他讲把OpenAI搞成这样,为什么呢?啊是因为有财务压力,你需要烧更多的钱,你必须要不停的再去融资,像我们以前也讲,你只要开始拿投资人的钱了,开始融资了,就相当于是在脖子上套了一条枷锁,对吧,投资人会催着你往前跑的,他会有时间和财务上的压力。伊丽尔说我没有啊,我就耐心做这个产品,而且呢他是希望通过工程突破,而不是各种临时技术措施,来去保证安全啊。大家注意啊。


伊利尔本身既是一位科学家,也是一位工程大师。他致力于将安全和能力视为技术问题,并通过革命性的工程和科学突破来解决这些问题。他希望能够直接解决安全问题,而不是仅仅通过打补丁等临时性技术措施来解决。他的工程能力使他能够实现量变达到质变,从而成为一个工程大师的典范。他的大模型是一个工程学方面的案例,通过堆积更多的参数和数据,他能够获得不同的结果。伊利尔提出的规模法则,即”scaring low”,指出只要扩大模型,就会获得不同的效果。他的发明和创造力使他成为一个大力出奇迹的发明人。

Read More…
Close Bitnami banner
Bitnami