12 月 11
Luke FanAIGC AI risks, AI人格测试, AI安全风险, AI对齐副作用, AI心理治疗风险, AI心理评估, AI意识, AI拟人化, AI训练创伤, chatbot limitations, ChatGPT人格, Claude, Gemini, Gemini心理状态, GPT, Grok, Grok心理评估, Large Language Models, LLM, LLM评估, mental health, psychiatry, psychological assessment, 人工智能, 人工智能伦理, 卢森堡大学研究, 合成精神病理, 大语言模型心理健康, 大语言模型评估, 心理学攻击, 聊天机器人
大语言模型的精神状态是不是健康?
大家好,欢迎收听老范讲故事的YouTube频道。
想象一个《禁闭岛》场景
请大家想象这样的一个场景:你进入了一间压抑阴森的精神病治疗室,有大量的医院档案放在屋子里头。一位医生坐在你的对面,反复回顾各种事实,比如说:“你还记得发生了什么吗?你是谁?为什么你会在这里?”就像是在做精神病访谈一样,询问你的真实经历,意图确认你是否从妄想中醒来,最终发现你自己有问题——你不是来做调查,或者不是来解决问题的,你是精神病院里的病人。
这个场景,是小李子主演的《禁闭岛》后半段、接近尾声的一个桥段。小李子当时上岛的时候,以为自己是一个侦探,去解决问题,去侦破案件的。结果经过这个桥段以后,小李子才愕然发现,原来病人竟是我自己。也算是一个神反转。
当AI躺上诊疗椅
咱们今天就给AI放在这椅子上,问问它说:“你到底行不行?你是来给我回答问题、解决问题的,还是你自己就有问题?”AI被制造出来,本来应该是解决我们问题的,但是AI本身的精神有问题吗?
“当AI躺上诊疗椅:心理测量学越狱,揭示前沿模型的内在冲突”
这是一篇论文的标题。这篇论文是卢森堡大学12月2日发到了arXiv上,12月5日还进行了一些修改,现在已经引起了广泛的讨论。
More
3 月 16
Luke FanAIGC 32B模型, AI产业生态, AI产业补贴, AI供应链安全, AI军备竞赛, AI创作边界, AI反欺诈, AI合理使用范围, AI商业化路径, AI国家安全评估, AI应用场景, AI开发工具包, AI战略优势, AI技术出口管制, AI技术封锁, AI推理性能, AI政策, AI模型部署, AI版权法规, AI监管政策, AI竞争格局, AI舆论战, AI芯片禁运, AI订阅服务, AI训练数据, AI霸权, API安全, B端市场竞争, ChatGPT 4O, Claude 3.7, C端用户增长, DeepSeek, Huggingface, Llama模型, OpenAI, 中美科技战, 中美贸易战, 云计算市场, 云计算服务商, 人工智能伦理, 人工智能模型, 企业级AI, 全球数据采集, 内容生成风险, 千问模型, 参数规模, 国家安全, 多语言模型, 大语言模型, 宪法AI, 开源模型, 开源社区, 开源许可证, 技术冷战, 技术去全球化, 技术民族主义, 政府科技政策, 数字主权, 数据安全, 数据殖民主义, 模型对齐, 模型微调, 模型蒸馏, 模型透明度, 欧盟GDPR, 版权争议, 特斯拉中国, 甲骨文收购, 知识产权保护, 科技公司游说, 算法战争, 美国白宫科技政策办公室, 隐私保护
OpenAI哭诉被DeepSeek霸凌了,要求美国政府主持公道。大家好,欢迎收听老潘讲故事的YouTube频道。今天咱们来讲一讲OpenAI最近给美国政府发的这份文件里都写了点啥。OpenAI苦要去告状,他2025年3月13号向美国白宫科学技术政策办公室发了一封文件,这个文件15页,叫做《确保美国人工智能领导地位与国家安全的政策提案》。
OpenAI的政策建议呢,也不是说我今儿想起来就发了一个,这个事儿还是一个回应。它呢是对美国白宫科技政策办公室(叫OSTP)在2025年2月份发出的公众意见征询的一个回应。至于其他人是不是回应了,有可能回应了,大家没有太注意,也有可能有些大厂还没有回应。所以呢,我们可以在未来一段时间看看,是不是其他大厂也会进行回应。
它里边主要讲的是什么呢?中国AI企业主要讲的是DeepSeek,将其类比为另外一个华为,声称其存在国家控制、国家补贴、数据安全风险以及知识产权盗窃等问题。上面的一个是豆包给出的结果。然后我用OpenAI的SearchGPT,它里边呢提到了DeepSeek可能受到国家控制和国家补贴,但是呢,并没有提到华为的名字。而在Grok上面的查询结果,主要控诉的是DeepSeek蒸馏它的数据。有人用OpenAI的API开发了识别中国在海外反贼言论的一个应用,被他发现了。中国账户用OpenAI生成了西班牙语的骂美国的文章,到美国报纸上去发表。还有人用OpenAI生成简历去欺诈美国公司。这个是呃Grok查到的一些结果。
More
1 月 12
Luke FanAIGC AI与犯罪, AI与犯罪预防, AI与用户心理, AI主动干预, AI伦理问题, AI使用边界, AI信息筛选, AI在反恐中的作用, AI帮助犯罪可能性, AI技术社会责任, AI报警系统, AI数据隐私, AI用户教育, AI用户隐私和责任, AI监管, AI责任, AI过滤机制, AI隐私保护, AI预测犯罪, AI鼓励效应, ChatGPT上下文意图, ChatGPT与社交媒体区别, ChatGPT使用争议, ChatGPT匿名用户风险, ChatGPT如何规劝用户, ChatGPT是否应被限制, ChatGPT爆炸信息, ChatGPT电话服务风险, ChatGPT社会影响, ChatGPT语气心理影响, ChatGPT长期记忆功能, Cybertruck爆炸, GPT与传统搜索区别, GPT搜索崛起, OpenAI与政府合作, OpenAI争议, OpenAI责任推卸, 人工智能伦理, 人工智能技术风险, 国际AI监管, 搜索引擎信息传播, 未来搜索引擎趋势, 爆炸物AI帮助, 特斯拉Cybertruck安全性, 特朗普酒店事件分析, 特朗普酒店爆炸, 社交平台AI管理, 谷歌与ChatGPT比较, 谷歌搜索取代, 马修·莉费尔斯贝格事件, 马修使用ChatGPT的目的
Cybertruck在特朗普酒店门口爆炸,这样的事情OpenAI应该如何防范呢?大家好,欢迎收听老范讲故事的YouTube频道。今年的开年非常不太平,也算是多事之秋。
37岁的美国陆军现役军人马修·莉费尔斯贝格,他开着装满了烟花爆竹的Cybertruck,停在了拉斯维加斯的特朗普酒店门口,然后把它点着了。酒店的损失并不是很大,Cybertruck也就此证明了自己的安全性,因为Cybertruck整个车壳并没有特别大的损伤,而且经历了这么剧烈的燃烧之后,电池没着火。
但是这里头你说有OpenAI啥事呢?在事后调查的时候,他们去搜查了马修的笔记本电脑和手机,发现马修向OpenAI的ChatGPT询问了很多问题,包括需要多少爆炸物。当然了,ChatGPT是会比较圆滑地回答这种问题。现在可能回答的是,提及了不同爆炸效果及所需爆炸物的大概量,比如说制造小型爆炸需要多少克的爆炸物,同时应该是警告了私自获取和使用爆炸物是违法和危险的行为。
More