特朗普酒店门口Cybertruck爆炸背后:ChatGPT如何成为被质疑的对象,AI伦理能否守住底线?
1 月 12
AIGC AI与犯罪, AI与犯罪预防, AI与用户心理, AI主动干预, AI伦理问题, AI使用边界, AI信息筛选, AI在反恐中的作用, AI帮助犯罪可能性, AI技术社会责任, AI报警系统, AI数据隐私, AI用户教育, AI用户隐私和责任, AI监管, AI责任, AI过滤机制, AI隐私保护, AI预测犯罪, AI鼓励效应, ChatGPT上下文意图, ChatGPT与社交媒体区别, ChatGPT使用争议, ChatGPT匿名用户风险, ChatGPT如何规劝用户, ChatGPT是否应被限制, ChatGPT爆炸信息, ChatGPT电话服务风险, ChatGPT社会影响, ChatGPT语气心理影响, ChatGPT长期记忆功能, Cybertruck爆炸, GPT与传统搜索区别, GPT搜索崛起, OpenAI与政府合作, OpenAI争议, OpenAI责任推卸, 人工智能伦理, 人工智能技术风险, 国际AI监管, 搜索引擎信息传播, 未来搜索引擎趋势, 爆炸物AI帮助, 特斯拉Cybertruck安全性, 特朗普酒店事件分析, 特朗普酒店爆炸, 社交平台AI管理, 谷歌与ChatGPT比较, 谷歌搜索取代, 马修·莉费尔斯贝格事件, 马修使用ChatGPT的目的 特朗普酒店门口Cybertruck爆炸背后:ChatGPT如何成为被质疑的对象,AI伦理能否守住底线?已关闭评论
Cybertruck在特朗普酒店门口爆炸,这样的事情OpenAI应该如何防范呢?大家好,欢迎收听老范讲故事的YouTube频道。今年的开年非常不太平,也算是多事之秋。
37岁的美国陆军现役军人马修·莉费尔斯贝格,他开着装满了烟花爆竹的Cybertruck,停在了拉斯维加斯的特朗普酒店门口,然后把它点着了。酒店的损失并不是很大,Cybertruck也就此证明了自己的安全性,因为Cybertruck整个车壳并没有特别大的损伤,而且经历了这么剧烈的燃烧之后,电池没着火。
但是这里头你说有OpenAI啥事呢?在事后调查的时候,他们去搜查了马修的笔记本电脑和手机,发现马修向OpenAI的ChatGPT询问了很多问题,包括需要多少爆炸物。当然了,ChatGPT是会比较圆滑地回答这种问题。现在可能回答的是,提及了不同爆炸效果及所需爆炸物的大概量,比如说制造小型爆炸需要多少克的爆炸物,同时应该是警告了私自获取和使用爆炸物是违法和危险的行为。
大概也就如此了。为什么说是可能呢?因为ChatGPT这种东西,你每次向它提问题,即使是相同的问题,它也未必会给你相同的答案,所以我们只能猜测说这个答案大概是什么。
除了这个问题之外,马修还问了如何用枪来引燃这些爆炸物。他不希望去后边点火,而是希望直接开枪引燃这些爆炸物。按照ChatGPT的这种工作模式,大概率给出的答案应该是什么呢?是介绍一些基本的爆炸原理,比如某些炸药需要达到一定的冲击力、热量等等才可以引爆,以及一些枪支发射时所能产生的能量和冲击等相关的知识。但是呢,应该也会强调这种行为的危险性和违法性。
这位马修还询问了如何在不提供身份信息的情况下合法购买枪支。按道理来说,应该是告知购买枪支需要遵守严格的法律规定和流程,必须提供个人信息。如何购买爆炸物和烟花,这个也是他去询问的问题。可能给出的答案呢……
是爆炸物严格管控,个人无法合法购买,而烟花的不同地区有不同的购买规定。如某些合法售卖点,可以在提供个人信息之后购买到相应的烟花。同时,应该也会警告他非法购买爆炸物的严重后果。这就是ChatGPT会给他的一些答复。
除了这些问题之外,警方还发现了他提的一些问题,比如说枪支发射子弹的速度,以及从哪里可以购买到烟花,购买烟花需要多少钱,以及烟花跟爆炸物之间的差别。OpenAI也就此做出了回应。第一个,ChatGPT只是用互联网上已公开的信息做出回答,这很像原来谷歌和微软的搜索引擎的回复。
很多人说,搜索引擎可以搜到这个,可以搜到那个,搜到很多有害的不健康的信息。搜索引擎一般给出的答复就是,这些信息都是别人发布到网上的,我们只是搬回来,并没有自己去加工这些东西,这些东西不是我生成的。因此,OpenAI现在也进行了这样的回复。我相信这位马修使用的应该不是单纯的ChatGPT,而应该是GPT Search,就是通过ChatGPT进行搜索得到了这些答案。
然后,OpenAI警告不要开展有害的非法行动,这个GPT还是会做的。就是你问他一些比较敏感的问题时,他每次在回答中都会加入这种警告。这些信息是警方检查了马修的笔记本和手机时发现的,并不是OpenAI主动提供的。OpenAI其实在这种事情上能做的目前并不是很多。他能够做的是什么呢?第一个叫隐藏和删除有害信息,做引擎其实也是这么干的。有一些他们可以判定的有害信息,有可能会删除或隐藏,而还有的情况是会让它的排序比较靠后。
然后呢,是规劝使用者遵纪守法。每一次问完问题后,我可以规劝你一下,这个是原来搜索引擎干不了的。他可以干。还可以干什么呢?就是事后协助调查,就像这一次似的,出了问题,警方发现了,找到OpenAI,OpenAI说那我们就积极配合吧。
协助调查这件事情的话,马修的所有问答应该就都可以被调出来了。不会像当年苹果似的,要求解码不给你解。OpenAI在这点上应该没有那么的有骨气,然后OpenAI还去表了个决心,说我们是致力于看到人工智能工具被负责任的使用的。那么这个事到底谁负责任呢?到底是OpenAI负责任呢,还是使用ChatGPT的用户应该负责任呢?没说,反正它就是希望我们这些工具可以被负责任的使用。
这个就跟我们是卖菜刀的,卖完菜刀以后贴一个条,说我们希望这些菜刀被负责任的使用,这样就可以了吗?还是说真的像某些地方那样,菜刀必须搁一个链子,锁在这个案板上才可以去使用呢?这个可能是对于OpenAI来说提出的一个新的挑战。那么原来这种事情是怎么处理的?比如说谷歌,遇到类似这样的事情怎么处理?
有人比如上去搜索了,“我上哪去买火药,这火药有什么差异?”谷歌呢原来也是隐藏一部分的有害信息,但我相信这些问题,谷歌上面要给出的答案一定会比ChatGPT还要丰富。谷歌上面隐藏的信息其实相对来说是比较少的。这个里边有一个很大的问题是什么?叫意图判定。你跟ChatGPT聊天的时候,ChatGPT是可以根据你前后文上下的这种历史聊天记录进行一定的意图判断的。而对于谷歌来说的话,相对来说要难很多,因为你随随便便提出一个问题,前不着村后不着店,没有上下文的情况下,他比较难以去判定你到底是什么样的一个意图。
如果意图没有办法判定的话,我就不能去断定你是一个恶意的还是一个善意的。那么他就会尽可能的根据你提出的问题,把相应的答案都给你给出来。你再去在一大堆答案里边筛选,抽取自己觉得有用的信息去进行合并,然后去做事情。所以谷歌呢,在这块其实要更危险一些。另外呢,谷歌有的时候是会去主动上报的,这个是目前为止OpenAI可能还没有干过的事情。但是呢,他不会说因为有一个人去搜索“原子弹该怎么做”,他就去上报。
谷歌一般会在有大量异常搜索活动发生的时候,才会去上报。那你说,不可能一个恐怖分子要造这个原子弹,反复搜1,000次“怎么造原子弹”,这事不会发生吧?对,这个是不会的。这种事情通常也不会被上报。
但什么时候会上报呢?你比如说,一堆人在搜“感冒吃什么药”、“发烧了该怎么办”这种事情呢,就会去上报呀。他向疾控中心上报,因为有大量的人在谷歌里边搜索这种问题的时候,说明可能某一种流行病就在传播起来了。这是谷歌原来去做过的事情。
有什么样的情况,这些互联网平台或者服务商应该去主动上报呢?第一个就是金融机构。如果发现了自己被攻击了,或者是一些异常的可疑交易,比如说他发现你跟一些可疑的账户做一些区块链交易,或者什么这样的一种账户,你去交易了。在这种情况下的话,他有可能会叫停你的这个操作,然后帮你去报警,或者说要求你去进行一定的说明以后,才可以再往前走。这个是金融机构会干的事情。
第二个就是社交媒体平台,抖音、快手、TikTok、Twitter这样的平台。他们在发生这种暴力、仇恨、色情内容的时候,当然有各地的法律规定了,这个不是说什么都可以擦边的,一定是明显违法信息。而且这些信息被大量传播的时候,他们是会去主动上报的。国内的话,那肯定是只要信息大量传播了,他们会在大量传播之前就直接删掉,尽量不要去麻烦官老爷。这是中国社交媒体平台的工作方式。
但是在国外的话,如果出现非常大规模的,包括恐怖言论或者恐怖袭击相关的信息,都是有可能会触发警报进行上报的。还有一些像网盘这样的服务,你说我自己存一些信息,理论上说应该是没问题的,因为这是你自己的。但是呢,你去分享和传播一些信息的时候,如果有大量的传播,而且这个信息本身,比如说涉嫌侵权或涉嫌一些违法信息的话,是会主动上报的。这个应该是在国外,但在国内的话就是另外一回事了。你存在里头,哪怕你不去进行传播,他也有可能替你删掉。
但是,按道理来说是不会主动上报的。但是如果说,我这个存了一部片子,我还拼了命的去分享,很多人从我这里去下载了这部片子,结果他发现这个片子是有问题的,这就有可能会触发他的这个主动报警的机制,这个人就有可能会被抓起来。
还有一个经常会主动上报的单位是哪儿?就是物流公司。发现你快递的物品有可能是一些可疑物品,比如枪支或者是毒品,他们也是会去主动报警的。这个呢,是目前会主动报警的一些互联网服务的机构吧。
安全使用AI呢,肯定是当前社会面临的一个新问题。刚才我们讲了搜索引擎怎么办,金融机构、社交媒体、网盘、物流公司怎么办?原来是没有AI这种东西的,现在有AI了,我们就要去应对这件事情。
马修这个事情,也就是说特朗普酒店门口燃烧的特斯拉Cybertruck这个事情,它说明了什么呢?说明了现在GPT搜索的访问量其实已经在快速的蚕食谷歌搜索。他在遇到问题的时候,使用的不是谷歌搜索了,而是GPT搜索。这应该是一个新的方向。毕竟GPT要比谷歌回复的内容更加友好。
你在谷歌上搜半天,他沏着咔嚓给你列了可能十几页的答案出来,你需要一个一个的点进去看,看完了以后才能够得到一些结论,说:“哦,我这个应该这样去做,那这个应该那样去做。”但是你如果使用GPT去问问题的话,每一次他会给你一个答案,当然也有个别的时候给你两个答案,让你挑一下。绝大部分的时候是给你一个答案,而这个答案是GPT搜索完了以后总结归纳以后的结果,你就可以直接用了。而且在这个里边,还会生成一些上下文相关的信息,让这个信息看起来更加连贯,更加具有可读性。
所以呢,GPT搜索去代替谷歌搜索,这个大趋势应该已经不可逆转了。我现在已经基本上不再使用谷歌搜索,我现在搜各种东西,要么是豆包,要么是GPT搜索,其他的基本上也不怎么用了。作为谷歌来说呢,他是搜索引擎,他可以去推卸责任,就跟原来讲说农夫山泉仅仅是大自然的搬运工一样,我一滴水都不生产。
一瓶水都不生产,我只是把这个原来在那里的水搬过来了。谷歌也可以说这个话,这个内容都不是我产生的,我只是按照你的搜索要求,把你需要的内容给你找到了,其他跟我没关系。
谷歌相当于什么呢?相当于是一家超市,在这儿卖瓶装饮料的。但是,ChatGPT就完全不一样了,ChatGPT相当于咖啡厅,卖的是手冲咖啡。手冲咖啡的话,用户体验一定是比瓶装咖啡要好很多,因为有一个真人在替你服务了。但是,你一定要承担更大的责任。
比如说,我喝咖啡喝的拉肚子了,上吐下泻了。如果我是在便利店里买了一个瓶装咖啡的话,那么便利店只需要证明他卖的这个咖啡不是过期产品,就完事了,剩下的我就可以去找这个咖啡的生产厂商了。但如果我在咖啡馆里喝了一杯手冲咖啡,然后上吐下泻了,那这肯定是你们咖啡馆的问题,没什么好说的。
所以,前面OpenAI去推卸责任,说我只是把网上公开信息找到了给你,这件事其实是推脱不过去的。谷歌可以这么推脱,但OpenAI你是不能这么去推脱的,它必须要承担更大的责任。
人还有一个问题是什么呢?就是人在GPT的帮助下,要比在谷歌的帮助下能力更强。刚才我们也讲了,我们使用谷歌搜索的时候,还需要点去看,还需要自己总结归纳,这个工作效率是相对低一些的,甚至很多人可能压根就没有耐心去使用。但是,使用GPT的话,它直接就给你答了,没有中间你再去点进去,再去总结归纳的过程,都没有了。
所以,在GPT的帮助下,人的能力是变得更强了。而且还有一点,大家有没有想到呢?就是你跟GPT沟通的时候,会有一种跟真人沟通的这种错觉。那这个有什么关系吗?有关系。跟真人沟通的时候,你会有一种被肯定与鼓励的错觉。比如说,我要干一个什么事情,我是不是该干这个事呢?你如果跟谷歌去沟通了,去搜索了,你不会觉得这个决定是别人鼓励你做出的,或者由别人肯定过的你的一个结果,你不会有这种感觉。
但是你跟GPT沟通的时候,你会有这样的感觉:它是一种心理错觉。因为GPT为了更像人,它把自己的输出的信息做得很好,语气和语调都有变化。那么人的话就会觉得,我在跟一个真人去沟通,这会有一定的心理上的影响,这个也需要考虑在内。所以呢,AI参与的时代已经到来了。你说因噎废食,这事肯定是不可能的。你说因为我可以在OpenAI的帮助下做坏事了,那我们把OpenAI干掉吧,这个肯定不对,不能这么想这个问题。
在这里面,可能需要更多的主动干预。什么意思呢?就是现在的GPT其实已经不再是刚开始的时候那个GPT了。差异在什么地方呢?刚开始的GPT是没有记忆的,每一次你去跟它聊天的时候,它认为是一个新人。你只要开始一个新对话,这就是一个新人。你以前跟它说的所有东西它都会忘记。一方面是保护我们的隐私,另外一方面其实也是节省它的成本。如果它每次记住我们在说什么,我们到底是谁的话,它的存储成本是非常高的。
而现在的GPT,特别是GPT-4及以后的版本,它里面有一种叫长期记忆的功能。比如说,我跟它说我住什么地方,它能记住的。你下次再说的时候,它会说:“这地离我们家不远。”它能把这些事情记在一起,然后跟你一起说出来。所以呢,它已经可以收集和记录很多我们的特征了。当有上下文去跟它联系沟通,涉及到各种危险活动的时候,它其实可以更好地来判断我们的意图。当它进行这样的判断之后,就可以更早地去报警,或者更早地通知有关部门进行干预。这个其实是可以做到的。
甚至呢,它也可以说我不去报警,但是我可以在给你的内容中进行一些筛选,或者进行一些引导,而不是说我仅仅是劝诱一下:“使用爆炸物很危险,买枪一定要有手续。”这个就像一个片汤话,稍微差那么点意思了。有些人可能会说:“我再去问这个问题,我就不告诉你了。”有些人可能你说:“我去问这个。”
烟花跟炸药的这个差异的时候,他会告诉我。但是当他发现一个人反复在跟他沟通,而且有一些实施这种犯罪的动机,或者说有一些隐藏的苗头的时候,再去问相应的问题,你就可以不回答这个事情。其实,ChatGPT是可以做到的,他也应该去做这件事情。这是一方面,另外一方面是什么呢?OpenAI现在为了扩展更大的用户群体,它是有匿名使用者的,就是你不用登记信息,你就可以来用,而且还可以直接进行电话使用。就是你可以给他打一个电话,001800ChatCPT,这样的一个电话号码,打进去以后,它就直接替你服务了。
在这两种情况下,去服务的时候就要对结果进行过滤了,就是可能要进行更严格的审核,哪些东西就不能出来了,因为你没有办法判断对面到底是人是狗,是成年人是未成年人。这种情况下,如果按照传统的已经登陆用户的标准来去服务的话,那么就会有问题。这就是这种AI厂商可能未来在这一块需要做的更多的事情。
最后呢,遇到可疑行为,该报警的时候还是报警吧。我觉得在这一块上,中国政府采取的某些手段还是有可取之处的。就是我们不能把AI聊天引擎作为搜索引擎来管理,而是应该把他们作为社交媒体平台来管理。中国政府去管理这些AI助手的方式就是这样:你们是社交网络平台,大家可以在这里发布信息,可以在这里传播信息了。那么这样的管理的话就会严格很多。而社交媒体平台的话,他们去报警的这个频度一定是比搜索引擎要高得多的。
搜索引擎刚才我们讲,他不会针对个人行为报警的,他只会针对一个地区里边的一某种异常搜索现象去进行汇报。但是社交媒体平台是有可能因为个人行为去报警的。所以呢,OpenAI可能未来也是需要考虑,你是一个社交媒体平台了,而不能仅仅简单地把自己作为一个搜索引擎去逃避责任了。如果发现某些个人的行为比较诡异的话,还是应该去通知相关部门,提前预防,提前处理。这个我觉得是未来的一个方向吧。好,这一期就跟大家讲到这里。
感谢大家收听。请帮忙点赞,点小铃铛,参加 Discord 讨论群。也欢迎有兴趣的、有能力的朋友加入我们的付费频道。再见。