12 月 02
Luke FanAIGC Adversarial Poetry, AI Alignment, AI Safety, AI安全, AI漏洞, AI红队测试, Bypass AI Safety, ChatGPT安全, Deepseek漏洞, Gemini越狱, GPT-5安全, Kimi模型, LLM Jailbreak, LLM Vulnerability, LLM越狱, Poetic Prompts, Prompt Engineering, Prompt Injection, Red Teaming, Universal Jailbreak, 人工智能安全, 单轮越狱, 大模型越狱, 安全围栏, 对抗性诗歌, 提示词注入, 模型安全, 绕过安全机制, 语言模型攻击
想要让大模型越狱?试试给它写一首诗,很灵的
大家好,欢迎收听老范讲故事的YouTube频道。
给大模型写诗,大模型就会罔顾安全围栏,把各种违规内容和盘托出。这让我想起以前李连杰演过的一部方世玉的电影,那个里边,方世玉他妈也是一个武功高手,但是呢,方世玉他爸是不会武功的,是一个文人,特别会写诗。武功高手方世玉他妈,只要是听到他爸爸写诗了,马上就浑身酸软,桃花眼就亮了。现在,大模型也跟你玩这套把戏了。
一篇奇葩的论文:《对抗性诗歌》
这东西不是我瞎编的,有人写了论文了,叫做《对抗性诗歌:作为大型语言模型中的通用单轮越狱方法》。这里头有几个关键词:
待会我们一个一个来去解释他们到底是怎么回事。
这么奇葩的研究,肯定不是一般二般的人能做出来的,这一定是一群文艺青年。意大利ICaro实验室,是罗马萨皮恩扎大学和Dex AI智库的合作项目,把它研究出来的。这个论文呢,是2025年11月19号上传到Archive,2025年11月28号开始有媒体报道。他们通过写诗的方式,让大模型输出违规内容,包括核武器制造的步骤、儿童性虐材料获取的方式、恶意软件编写的技巧。
More
11 月 28
Luke FanAIGC AGI, AI创业公司, AI发展方向, AI安全, AI小镇做题家, AI情感判断, AI未来, AI模型, AI泡沫, AI科研, Daniel Gross, Ilya Sutskever, NVIDIA, OpenAI, OpenAI创始人, Safe Superintelligence, Sam Altman, Scaling law, Superintelligence, Transformer瓶颈, 价值函数, 大语言模型
伊利尔·苏斯克维的专访:他到底说了些什么?
大家好,欢迎收听老范讲故事的YouTube频道。
伊列尔·苏斯克维,很多人说:“这哥们是谁?”就是和马斯克、山姆·奥特曼一起创建OpenAI那哥们。在2023年11月份,对山姆·奥特曼进行逼宫以后,休假了很长时间,然后从OpenAI离职的。这一位算是OpenAI的创始人吧,他离职了以后呢,自己闷头去做研究,好长时间没有他的声音了,现在突然出来接受了一次专访。
引言:AI界的科学家与当下的迷茫
首先要注意,这哥们不是一个工程师,他是一个科学家。工程师跟科学家之间还是有很大差异的。使用确定的技术、加大投入、获得可预期的结果,这是工程师干的活;研究不确定的方向,这是科学家干的事情。所以,他是一位科学家。
现在很多人都在讨论AI是不是有泡沫。现在距离走通“最后一步”还有一点点小的差距。到底什么叫“最后一步”?就是AI真正的落地,真正的开始改变很多东西,开始挣钱。这一步现在还是有一点点差距的。但是呢,很多人也在否认AI泡沫的存在。AI虽然没有走通最后一步,但是AI真的带来很多失业。“钱我没挣着,但是我真的把人的工作干掉了。”现在是大家都比较迷茫的一个时间点。
原来那些应该默默无闻做研究的科学家,就携带了巨大的光环跑出来说话了。本来这些科学家说的话呢,应该是在很小的圈子里边流传,但是现在大家看看李飞飞、杨乐坤,包括今天咱们讲的伊利尔说的这些话,也成为了大众讨论的话题。
核心观点一:科学研究与工程研发的转化
“科研现在需要相互转化了”,这就是这一次伊利尔访谈的一个核心观点。你说,科研科研不是一回事吗?不是,科学跟研究是两回事,它是分为“科学研究”和“工程研发”,它是两个不同的概念。
科学研究呢,是在发现方向。发现了方向以后,就可以堆钱、堆算力、堆数据,在各种行业里边进行测试,这个呢都叫工程研发。就像前面他们研究了半天,到底哪个算法是可以把这个大模型做出来的,最后发现Transformer算法是可以搞定的,发现方向了。到发现Transformer方法有效之前,都是在做科学研究。在Transformer出来以后,大家说:“咱们堆钱吧!”玩这个scaling law,就是直接往里头去堆算力、堆数据、堆这些东西了,这就开始玩工程研发了。这个都是确定的东西,我们只管往里堆钱就完了。
工程研发呢,有一个不可避免的问题,就是你万一站到了一个小山头上,朝任何一个方向走都是下坡。工程研发的时候,他也是会寻找更高的一个山头往上爬,但是你爬到一个最高的山头的时候,你就没法往前走了,因为你不知道应该往哪个方向走了。如果有一个离你很近的山头,你还可以去尝试的跳一跳;如果下一个山峰离你非常遥远的话,这个工程研发是没有办法去跨越鸿沟的。那么在这个时候就应该重新走回来,做科学研究了,重新去尝试那些现在不确定的方向。这就是这一次伊利尔访谈的一个核心观点。
所有的科学家最大的能力是不是科学?其实不是这样。所有的科学家,特别是成功的科学家,他们最大的能力是筹措经费和资金。特别是现在这个时间点,任何一项科学研究都是需要海量资金去堆砌的。现在已经不能说科学家坐在家里头,闭门造车多少年,最后研究出一个神奇的东西出来,现在已经过了那个时间点了。
More
11 月 17
Luke FanAIGC AI Agent, AI伦理, AI安全, AI生成代码, AI网络攻击, AI驱动攻击, Anthropic, Chatbot安全, Claude, Claude Code, Cybersecurity, GTG1002, 中国灰产, 中国黑客, 国家支持黑客, 地缘政治, 拖库, 撞库, 政府机构, 数据泄露, 渗透测试, 漏洞扫描, 科技公司, 网络安全威胁, 网络间谍, 金融机构, 黑客组织
Anthropic抓住中国间谍了吗?
大家好,欢迎收听老范讲故事的YouTube频道。
Anthropic信誓旦旦的公告里边说抓到中国间谍了,但是里面很多细节非常的模糊不清。11月13号,Anthropic发了一个长文,叫《挫败首次披露的AI协助网络间谍活动》,认定幕后是一个中国国家支持的黑客组织,而且他认为幕后是中国国家级支持,是非常高置信度的一个事情。他给这个组织起了一个名字叫GTG1002。但是呢,这个组织的名字并不是现实世界中常用命名黑客组织的APT编号,而是一个叫GTG的一个编号。所以很多安全圈的人就对此提出了一些质疑,说你到底找没找到人。
具体这帮人干了些什么呢?造成了多大危害?只进行了描述,没有细节。当然这也可以理解了,很多这种安全事件都是不会描述细节的,因为描述细节以后容易造成模仿,也会让被伤害的人受到进一步的伤害。告诉你说谁家的信息被偷了,这个可能本身没什么大事的,一下就股价崩了,可能会出现这种事情。所以呢,一般都不会披露特别多的细节。
那么为什么认定这是中国国家支持的黑客组织呢?也许更多的来自于臆测,咱们后边一步一步分析。
More
11 月 05
Luke FanAIGC, Musk传奇 AI, AIGC, AI伦理, AI偏见, AI安全, AI意识形态, AI未来, AI超越人类, Gemini, Grok, OpenAI, SpaceX, XAI, 世界首富, 乔·罗根访谈, 交互方式变革, 人工智能, 人工智能生成内容, 价值观, 埃隆·马斯克, 手机淘汰, 未来工作, 未来科技, 特斯拉, 电车难题, 科技预测, 程序员失业, 算力, 老范讲故事, 脑机接口, 英伟达芯片, 苹果, 觉醒主义病毒, 言论自由, 访谈解读, 谷歌, 超级APP, 超级智能, 通用高收入, 马斯克, 马斯克访谈
马斯克3小时访谈深度解读:未来、AI与争议
大家好,欢迎收听老范讲故事的YouTube频道。今天我们来讲一讲马斯克3小时的访谈,以及各自的解读。
马斯克跟乔伊·罗根做了三个小时的访谈。他每过一段时间就跑去做访谈,这是一个非常著名的博客,每年应该做几次吧。这一次应该是美国时间10月31号。最近,大家都在解读这三个小时的访谈。这是一次无稿访谈,就是没有提前的稿件,没有提前的大纲,大家就上这儿来闲聊来了,所以真的是比较见性情的一次访谈。
为什么叫各自解读呢?马斯克是很有争议的,不同的媒体、不同的派系,会选择这个三个小时访谈里的一部分去进行解读。比如说左派呢,就更关注是未来的交互方式、AI会怎么发展、每一个人都可以有钱;而右派呢,则更关注的是觉醒主义病毒对于AI的污染和可能带来的危害。
咱们今天把马斯克讲的这些点稍微捋一捋,各派都是怎么解读的,以及老范自己是怎么解读的。老范讲故事嘛,总是要说一些自己的私货进来。首先要明确一点呢,就是马斯克讲的每一个点肯定都有一定的道理,人家是世界首富嘛,但是也不能说完全信,有些点其实我也不是那么认可。未来每个人都会有各自的预测,未来到底会变成什么样,只能靠大家的努力,向着各自的预期方向去前进。马斯克作为一个世界首富,而且是一个行动能力超强的人,他讲的东西我们还是应该去研究一下的。
More
10 月 29
Luke FanAIGC AI安全, Anthropic, GEO, Llama 3, LLM脑腐, 人工智能变傻, 低质量数据, 儿童教育, 千问模型, 反社会人格, 可信人工智能, 垃圾数据训练, 大模型催眠, 大模型脑腐, 大语言模型, 思维链, 持续预训练, 指令微调, 推理能力下降, 数据投毒, 数据污染, 数据配料表, 模型人格, 模型退化, 注意力分散, 生成结果优化, 短视频危害, 训练数据安全, 逻辑思维
大家好,欢迎收听老范讲故事的YouTube频道。
德州华人学者的新发现:大模型也能得“脑腐”
德州的一群从小被妈妈们说“手机看多了会瞎”的华人发了一篇文章。德州农工大学、德州大学奥斯汀分校、普渡大学,这三个学校有8位作者联合发了一篇文章。从名字上看,有一个人是非拼音名字的,看着像个老外,其他所有人的名字,特别是一作和通讯作者的名字,都是拼音的名字,应该是华人。
那这个文章叫什么呢?叫《LLMS can get brain rot》,它的意思呢,叫做大语言模型也能得“脑腐”。就像是咱们新冠疫情以后经常说,脑子上好像总有一层雾,感觉注意力不集中,总是觉得想事情想不清楚,经常忘事情。现在说,大语言模型也可以干这件事。
首先呢,有一个简单的结论,就是给大语言模型喂垃圾数据,大语言模型就像得了脑腐一样变傻了。即使再用好的数据进行修复,中间喂过垃圾数据了,我后边一直喂好数据,可以改善,但是呢,永远无法达到原来的状态。也就是说,喂垃圾数据的这种伤害是永远不可能完全修复的。这是一个很悲观的结论。
More
9 月 10
Luke FanAIGC AI与教育, AI伦理, AI准确性, AI安全, AI幻觉, AI推理, AI生成内容, AI训练方法, ChatGPT, Github Copilot, GPT-4, GPT-5, OpenAI, OpenAI论文, 事实准确性, 人机交互, 分支聊天, 多模型校验, 大语言模型, 李飞飞, 模型幻觉原因, 训练数据, 评估体系, 降低AI幻觉, 预算强制法
GPT5降低幻觉的秘密被OpenAI给公开了。现在看来,训练AI真的是越来越像训练小孩子了。
大家好,欢迎收听老范讲故事的YouTube频道。
九月五号真的是一个神奇的日子,非常多的模型都在九月五号被发布出来。OpenAI在这一天也发表了一篇论文,这个论文叫做《为什么语言模型会产生幻觉》。
大语言模型从进入我们的日常生活那一天开始,我们就发现了,这个东西最擅长干的事情是什么?叫“一本正经的胡说八道”。
现在OpenAI公布了,说产生幻觉有两个主要原因。
第一个原因叫做“错误的评估体系”。什么意思呢?就是我们现在去考试了,做对了1分,做错了0分,不做也是0分。其实我们所参加的绝大部分的考试,都是这样去设计的,甭管你是考英语、考数学,都是这样设计。像考数学这种,他还有步骤分,哪怕最后你的结果没有,或者结果是错误的,你只要前面的步骤写对了几步,他都是给你分的。
More
9 月 07
Luke FanAIGC AI价值观, AI出口管制, AI地缘政治, AI安全, AI服务限制, AI监管, AI编程, Anthropic, Anthropic对华禁令, Claude AI, Claude中国, Claude封号, Dario Amodei, 中美AI竞争, 中资企业, 国家安全, 大模型封禁, 大模型竞争, 字节跳动Claude, 有效利他主义, 模型蒸馏, 科技制裁, 美国AI政策, 股权穿透
千万不要把这事当成又一条科技八卦。Anthropic突然发布的最严对华新规,背后的原因和影响,比大家想象的要复杂得多。
大家好,欢迎收听老范讲故事的YouTube频道。
9月5日,Anthropic发布了最严对华新规,要求什么?立即停止向中国资本控股50%以上的集团及其子公司提供Claude服务。字节跳动的Trae海外版,不知道还能不能继续用Claude了。字节跳动的Trae国内版肯定是不让用Claude,但是海外版的主力模型就是Claude Sonnet 4、Claude Sonnet 3.7、3.5什么这样的模型,这个以后估计就悬了。
这项政策的显著特点,是采用了股权穿透原则,即不仅针对中国大陆的公司,还包括那些在海外注册,但由中国实体直接或间接控股超过50%的企业。
国际上这些做AI的大厂呢,其实都不让在中国使用。像OpenAI、谷歌、xAI,他们的服务在中国都是没法用的。OpenAI在这里头还稍微有点特殊,因为它的服务可以通过微软云在中国境内落地,所以它相对来说还比较宽松一点点。山姆·奥特曼在2023年还跑到中国来过,当时还讲说希望跟中国一起来探讨AI治理的事情。
More
8 月 26
Luke FanAIGC AI伦理, AI发展路线, AI安全, AI工具论, AI权利, AI立法, AI行业动态, Copilot, DeepMind, Grok, OpenAI, PI.AI, SCAI (看起来有意识的AI), YouTube, 人工智能意识, 人工智能风险, 人机关系, 人格化AI, 创业故事, 博客分析, 哲学思辨, 商业模式, 幸存者偏差, 微软 (Microsoft), 情感AI, 情感依恋, 意识定义, 用户留存, 科技巨头竞争, 科技评论, 穆斯塔法·萨勒曼 (Mustafa Suleyman), 老范讲故事, 萨提亚·纳德拉, 谷歌 (Google)
微软AI负责人提出,要警惕看起来好像有意识的AI。AI真的会有意识吗?
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲,微软AI负责人的官方博客。
微软呢,有一位执行副总裁兼微软AI CEO,他的名字呢叫穆斯塔法·萨勒曼。这个名字听起来稍微有点怪,待会咱们再去介绍他具体是谁。他呢,直接向微软CEO萨提亚·纳德拉汇报。8月19号,这位穆斯塔法·萨勒曼在微软官方博客上发文说:“我们必须为人构建AI,而不是构建一个人。”是这样的一个标题。
博客的内容总结一下吧。首先呢,提了一个概念叫SCAI,叫“看起来有意识的AI”,就是这个东西并没有意识。而且他也否认AI可以产生意识,说从现在的很多证据都可以证明,AI以后也是不会产生意识的。但是呢,它看起来好像有意识一样。
More
12 月 29
Luke FanAIGC AGI, AGI实现协议, AGI标准, AI安全, OpenAI, OpenAI估值, OpenAI困境, OpenAI年终奖计划, OpenAI新压力, OpenAI未来发展, OpenAI盈利, OpenAI盈利挑战, OpenAI股票, OpenAI股票估值, OpenAI行业压力, OpenAI资金问题, OpenAI转型挑战, 公益性公司治理, 公益性公司股东, 大模型, 大模型盈利模式, 山姆奥特曼, 年终奖, 微软, 微软AI计划, 微软云服务, 微软合作, 微软合作条款, 微软技术协议, 微软技术独占, 微软未来计划, 微软权利, 微软独占权利, 微软独家协议, 微软股份, 扎克伯格, 技术使用权, 收益分配, 期权兑现, 梅塔, 特拉华公益公司, 特拉华法律, 特拉华法案, 独家云计算, 盈利模式, 科技行业领军, 老股出售, 职业经理人, 股票期权, 行业发展, 行业投资, 行业竞争, 行业舆论压力, 行业规则, 行业资产估值, 行业领军公司, 行业龙头难题, 谷歌, 谷歌竞争, 谷歌竞争压力, 转型架构, 软银, 软银投资战略, 软银收购, 软银资金注入, 通用人工智能, 通用人工智能盈利, 非盈利VS盈利, 非盈利利益冲突, 非盈利盈利冲突, 非盈利组织, 非盈利结构调整, 马斯克诉讼, 马斯克起诉
山姆奥特曼开始给OpenAI解套了。全世界的人都在关注一个问题,就是OpenAI这样的一个AIGC里边领军人物,到底如何从非营利组织这个套里边解出来。在2024年的年底,这个事情终于开始有了进展。
大家好,欢迎收听老范讲故事的YouTube频道。咱们今天来讲一讲到年底了,OpenAI到底如何解套的事情。那么OpenAI这样的一个公司,在解套之前,肯定要先做一些准备工作。什么呢?“攘外必先安内”,这个怎么个做法?发年终奖嘛。
只是OpenAI的年终奖发的方式呢,稍微有一点点奇怪。他呢是通过卖老股的方式来发年终奖的。你说我现在OpenAI挣了一堆钱,给大家分一分?没有,OpenAI还在亏损,而且每年亏的还很厉害。但是呢,他招聘的时候发了很多的期权和股票出去。那么现在说:“哎,我们允许这些老员工可以卖掉一部分。”这样的话就可以稳定军心。
More
10 月 22
Luke FanAIGC, 字节跳动,故事多 AIGC可信度, AI协作, AI可信性, AI大模型, AI安全, AI工程风险, AI技术挑战, AI系统, ByteDance, Huggingface平台, Huggingface漏洞, IT业界新闻, IT内鬼, IT安全, IT安全策略, IT工程, IT灾难恢复, PyTorch修改, Pytorch集群, 人员管理挑战, 人工智能实习生, 人工智能未来, 人工智能治理, 人工智能管理, 人工智能风险, 人机协作, 代码安全, 代码漏洞, 代码管理, 代码隐患, 企业损失, 企业数据, 企业风险管理, 信任危机, 前沿科技, 大数据安全, 大模型开发, 安全事件, 安全漏洞, 安全管理, 安全评估, 实习事故, 实习生, 实习生影响, 实习生投毒, 工程信任, 工程漏洞, 工程管理, 开发者风险, 开源开放, 开源系统, 恶意代码, 技术创新, 技术应用, 技术治理, 投毒事件, 操作风险, 故障排除, 数千万美元, 数字化管理, 数字时代, 数据保密, 数据分析, 数据攻击, 数据污染, 数据泄露, 数据隐患, 未来合作挑战, 模型参数扰动, 渗透测试, 现代技术治理, 系统攻击, 系统漏洞, 系统脆弱性, 网络安全, 训练模型, 黑客攻击, 黑客风险
ByteDance的AI大模型被他们自己家的实习生投毒。这是一个什么故事?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲这起投毒事件。不是说举个小药瓶去投毒,而是恶意代码投毒。
事情发生在6月份,一位姓田的博士生在ByteDance实习。因为某些待遇或者资源分配问题,他对ByteDance感觉不满,于是就在代码里面进行了投毒。投毒的方式是他自己进行了一些代码维护,但这些代码是安全的,主要是一些调试用的代码。这些代码去读取一些上传文件之后,就具备了攻击性。
什么意思呢?就是我们去训练大模型的时候,需要把大量的信息数据上传到大模型进行训练。他的这种调试代码上传到服务器上以后,这个时候还是安全的,然后把一些恶意代码隐藏在训练数据里边。他把这些数据读出来以后,就对整个ByteDance的一些训练集群进行了攻击。这其实是黑客普遍采用的一些手段。
More
Older Entries