硕鼠的博客站

范路的博客主站,时而会发些东西。

加州州长否决了SB1047法案,AI企业终于能够松口气了。9月29号,加州州长纽森在签署了18项AI相关的法律文件之后,专门否决了SB1047。SB1047叫什么呢?叫前沿人工智能模型安全创新法案。SB是什么意思?叫Senate Bill,意思就是参议院法案。这个法案已经在加州的参议院高票通过了,所以它的前面会加上SB两个字。

这个法案被众多大佬所反对,最终纽森说:“我拒绝签署加州的法案。”为什么会引起大家的关注呢?因为全球50家最顶尖的AIGC企业里边,有32家都在加州。如果加州的法案通过了,那么美国立法的时候,可能也会进行参考。现在全世界对于AIGC相关的立法,就是天下文章一大抄,谁也不知道对这个新鲜事物应该怎么办,所以都是把别人的法案拿出来去调整一下。待会我们去看看欧盟跟中国的法案,你会发现加州这个法案里头有很多地方都是有迹可循的。

另外,加州不光是AIGC最大的发源地,同时也是AIGC最大的受害群体的聚集地。这是怎么算的呢?因为加州除了硅谷之外,好莱坞也在那儿。AIGC损害利益最大的人,其实大部分是在好莱坞的,所以矛盾就聚集在加州了。

纽森前面说了,签署了十几份关于AI的法案,主要是打击deep fake,深度伪造的,特别是一些名人的这种视频和图片。另外,保护表演者的数字肖像权。因为前面很多影视公司希望可以获得表演者或者说演员的数字肖像权,导致了好莱坞那边开始罢工。所以现在说签署法令,我们要去保护表演者的数字肖像权,大家好好去演电影。

人工智能监管方面也通过了一些法案,主要分四个方面。第一个是隐私和个人信息保护,因为大家知道大模型是需要进行训练的,在这方面需要有一个法律来保护大家。第二个叫内容透明度,就是多个法案都提到了广告、选举期间以及社交媒体上需要标识和报告AI生成的内容,防止虚假误导性信息的传播。

或者是在社交媒体上跟选举相关,因为今年是选举年嘛,你必须要告诉大家,这个内容是AI生成的,不是真的。特别是现在生成图片、生成视频的模型已经非常能干了,所以如果不去进行标注的话,很容易误导。

第三个呢是AI在教育和医疗领域中的应用。这一块呢,肯定也是要去划分。第一个教育这块儿,所有的教学一定要把AI技能提上日程了。医疗的话也要去讲一下,医生跟AI之间如何去划分责任。这块也立了一些法律。

然后呢是性别跟隐私的保护,明确数字化内容和儿童色情内容的法案,要求建立严格的报告和防止分发的系统,尤其是AI生成和修改过的内容。因为原来肯定是有儿童色情相适应的这种法律的,但原来那个法律制定的时候呢,是不包括AI生成内容的。现在要把这些东西放进去,加上其他的一些性别歧视的东西都放在里头。

大概前面签了十几份,就是类似这样的协议。那么SB1047都说了些什么呢?第一个叫抓大放小。什么意思?他对于小模型是不管的,但对于训练成本超过1亿美金或者微调成本超过1,000万美金以上的大模型是要实施监管的。而且对于造成重大损失的,要进行处罚和追责。

什么叫重大损失?大规模人员伤亡或者造成5亿美元以上经济损失的网络安全事件,基本上是符合这两条以上的,就要去追责了。而且呢,一旦模型被滥用,要去处罚最开始开发的公司。什么意思?比如说有人开发了开源模型,这个模型被其他的组织再去使用了,造成了损失以后,最开始开发的这个公司要受到处罚。

那这个基本上是指名道姓的说,梅塔你们家做的拉玛怎么怎么回事,谷歌你们家做的GAMMA怎么怎么回事,基本上是在讲这个话了。因为呢,他要求微调或者越狱后的模型出了问题,也要处罚最开始开发的那个公司。

当然在这个过程中呢,FSD其实也是很危险的,就是特斯拉的FSD。如果是被人去破解了,然后在里边进行了一些调整之后,造成人员伤亡,实际上谷歌也好,梅塔也好,他们的那些模型可能更容易造成的是5亿美元以上经济损失的网络安全事件。而特斯拉的FST是真的有可能造成大规模人员伤亡的一个产品。对于这样的产品,哪怕是你被别人修改了,你依然要承担责任。如果公司开放模型给其他国家使用,还得提交用户的所有资料,包括客户的身份证、信用卡账号,这个我觉得基本上可以认为是在针对中国了。因为这些模型,你比如送到欧洲去使用,估计他也懒得管。但是你送到中国来使用的话,那么谁到底用没用,用了哪些,怎么用的,你让人去提供身份证,这不是扯淡吗?

然后呢,是要求大型AI公司在向公众发布其系统之前,必须进行安全测试。我觉得这个还算是合理的要求吧。再往后呢,开发人员需要每年聘请第三方审计师评估其安全情况,这个是一个非常沉重的负担。而且有的时候这种评估完了以后,你这个系统就没法跑了。

什么意思呢?跟大家讲一个小故事啊。当年猎豹移动要去上市的时候,美国SEC就要求我们在四大里头挑一家来做审计,这个是很正常的,你在美国上市都要四大里挑一家。然后呢,要求这个审计公司提供一个SDK,就是插到应用程序里边的一个程序包,让我们在我们的产品里头包含这个程序包。包含以后呢,由这个程序包来去报我们数据,我们应用程序的所有数据,包括有多少新安装、多少活跃,活跃的用户都在做什么,要求由这个系统来报,我们自己报他是不信的。

当时我们说,那行啊,你有这要求,我们就守这规矩不就完了吗?当时猎豹上市的时候,审计公司是安永,安永就拎出一个SDK来,说那这东西在这呢,你们打包去吧。我们就把它打包到自己的应用程序里边去,后来发现哦,第一,这个东西很大很笨,消耗非常多的资源、内存以及网络,而且呢,还有很多的bug。说这个不行啊,如果你要我们去加这个东西到自己的应用里去的话,我们宁肯不上市啊。但安永也想挣这笔钱了,包括很多的投行也希望能够挣这笔钱。说那怎么办呢?有没有什么其他方法可以解决呢?说那这样……

你们自己写一个类似这样的产品,然后呢,再到美国SEC那边去参加认证。认证了以后呢,你自己这个产品就可以去给你自己的应用报这个数据了,就是你自己做就完了。最后是这样才去上市。

所以如果要求AI大模型公司找这些传统的审计公司或者是一些安全审计人员去给他们做相应的安全性审计的话,这个事情就没法玩了。最后呢,最可笑的是这个法律要求大模型公司为大模型提供一个关闭整个AI模型的紧急停止按钮。就是你一摁这个按钮以后,这个AI大模型甭管是在你自己手里,还是被用户已经拿走了,已经被改过了,还是在哪个应用里去用着的,你只要摁了这个按钮,这个大模型就不干活了。要求有这样的一个开关,这个不知道是不是也是针对中国设计的。原来美国商务部长也想着中国摁一个按钮,美国300万车就趴在路上这样的事情。

那么他们现在要求加州开发的所有AI大模型也要有这么个钮,这也是非常可笑的一个条款。那么谁支持谁反对呢?先说支持的人。首先,马斯克支持这个法案,这个是大家没太想到的。第一个呢,可能因为FSD已经遥遥领先于其他所有的自动驾驶系统。如果他支持这样的一个法案,其他再去做自动驾驶的公司的话,就会有巨大的压力。等于他已经穿上鞋了,其他做自动驾驶的公司还是光着脚。他有信心说不会被别人利用,但对于其他做自动驾驶的公司来说,这个事就比较难以承受了,这可能是马斯克支持的第一个原因。

另外一个原因是,他们公司的总部不在加州,而是在德克萨斯州。他们前一段时间把特斯拉、推特和XAI这些公司都搬到德克萨斯去了。还有,Notion的创始人支持这个法案,因为他自己不出大模型,他只是大模型的应用者。Notion AI是使用别人家的大模型的,他讲的是希望加州可以先做个样板出来,这样的话为美国全国的立法先打个前站。另外,原来支持AI暂停6个月做签名的那些科学家也在支持这个法案。

包括Jeffrey·辛顿和约书亚·本杰奥,图灵奖三巨头吧,这里头有俩在。说我们支持,反对的人呢,李飞飞,杨乐川,也就是梅塔的AI首席科学家。刚才我们讲了这个法案,基本上是点着谷歌跟梅塔的鼻子做的,那梅塔的科学家一定是反对的。然后温达·佩洛西老太太也是坚决反对,旧金山市的市长坚决反对,洛杉矶的市长可能就会支持,因为好莱坞在洛杉矶,而硅谷在旧金山。

反对的公司呢,A16z,啊比较著名的一个基金,谷歌肯定要反对。Hugging Face,抱脸啊,拥抱你的脸,这个公司呢,现在是大模型时代里面主要的开源模型的集散地,他们肯定是要反对的。梅塔坚决反对,OpenAI坚决反对,YC坚决反对,YC是一个大的孵化器。

然后持中立态度的公司,一个是微软。微软这么大的公司说那我们看一看吧,我们既不支持也不反对。另一个呢,是Anthropic,就是做Cloud的那个公司,既不支持也不反对,我们观望一下。

那么其他公司的同类法律是怎么定的呢?咱们先说中国的。中国的法律呢,叫做生成式人工智能服务管理暂行办法,就是我们并没有把它真正做成一个法,而是写下了一个规定。这个办法呢,是2023年7月由网信办联合多部门发布的,应该是2023年8月多开始实施的。

具体的条款呢,第一个是鼓励发展,鼓励国际合作,就是咱们的管理办法上来先写的是鼓励。然后呢,是要求使用数据和基础模型必须合法,你不能说我这个数据不知道哪来的,我就把它训练到模型里去,这事不允许啊。再往后呢,对外提供服务要去申请牌照,这个牌照呢基本上是按照社交媒体网络和游戏的方式在管理,包括什么防沉迷啊,什么都有的。

API的使用,说我们现在想通过API来调用这些大模型了,怎么办?必须实名制啊。你像我现在在国内申请各种大模型的使用,都是举着身份证上这去实名制认证去,否则人家不让我使。处罚条款呢并不是特别清晰,只是说我们要去处罚。

因为毕竟这是一个管理办法嘛。 当然了,国内的特色呢,就是“形不可耻则威不可测”。 咱们呢,属于是严抓公共服务,对于研发开源方面呢,我们还鼓励和支持。 这个是跟美国完全反过来的。 对于美国来说,谁开源我们要严格管理他;你开源的东西出了事,我们要罚你。 咱们现在只要不是对公众服务的,你们随便去玩,关起门来爱干嘛干嘛,这个是不管的。 但是一旦对公众服务,我们就严格管理了。

欧盟他们出的法案是什么样的? 他的法案叫人工智能法(AI ACT),大概是这样的一个名字。 他们首先呢,对危险进行了分级。 第一个叫不可接受级,包括一些歧视、潜意识控制等,这种基本上人就不是人了的那种,叫不可接受。 然后呢,是高风险,比如说影响选举的,这些都属于高风险。 当然还有一些其他的级别,我们在这里不讲了。 然后呢,也是对透明度有要求,生成内容必须披露,哪个东西是AI生成的,甭管是文字、图片还是视频,你必须要写上。 你不能拿这个AI生成的东西当真的出来放。

第二个呢,就是数据使用要公开,你用了哪些数据,必须要说。 你不能偷偷去用,或者没有经过别人同意就直接拿来用,这个事是不允许的。 其实在这一方面,欧盟的法律与中国的、美国加州定的法律,实际上是差不多的,主要是在透明度上。 然后基础模型提供者要有义务进行风险评估和降低,这是他们的义务。 然后呢,是欧盟数据库的注册,你要到欧盟数据库注册,作为一个基础模型的提供者。

在这一块上,大家看到加州的法律,其实是跟这个有些像的。 再往后呢,是高额罚款。 其实加州的法律到最后说,我到底怎么罚这个钱,如何计算损失,并没有详细的说。 中国这个管理办法也没说,但是欧洲呢,是有非常详细的罚款规定的。 为什么呢? 就是绝大部分的这种AI大模型都不是在欧洲本地做的。 所以呢,他们就像原来管理社交网络、管理这种守门人法的方式,直接给你定高额的罚款。 而且欧盟的罚款,一般都是某一个公司全球营业额的百分之多少。

所以,动不动就是几亿美金、几亿欧元的罚款。虽然他有一个高额罚款,另一方面呢,他也要支持中小企业和初创企业,这是欧盟在关注的事情。现在,全世界对于AI监管的法律制定都还在一个摸索的过程中。为什么呢?因为所有人都看到了,AI可能会出问题,AI可能在版权、隐私、欺诈等方面会有问题。然而,又没有一个特别明确,或者没有很多非常明确的案例,说明到底出了什么事情,造成了多少损失,谁的责任,应该怎么分。因此,大家都是在摸着石头过河,思考我们应该如何来制定这个法律。

在这个过程中,AI公司是一波人,传统的版权持有者是一波人,还有一些杞人忧天的人,无论是科学家还是社会学家,都在说AI要取代人类了,这也是一波人。再加上各国的政府,因为AI这个东西,很多地方都在讲AI会实现数据平权,会实现革命。那么,这场革命,革命谁的命呢?肯定是管理者的命。所以,各国政府也算是在这个里面的一方。

现在,各方都在进行博弈,慢慢摸索出一套管理AI或人类社会与AI共存的方法。这就是今天我们讲的内容。感谢大家收听,请帮忙点赞、点小铃铛,参加Discord讨论群。也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。

 

Both comments and pings are currently closed.

Comments are closed.

Close Bitnami banner
Bitnami