11 月 17
Luke FanAIGC AI Agent, AI伦理, AI安全, AI生成代码, AI网络攻击, AI驱动攻击, Anthropic, Chatbot安全, Claude, Claude Code, Cybersecurity, GTG1002, 中国灰产, 中国黑客, 国家支持黑客, 地缘政治, 拖库, 撞库, 政府机构, 数据泄露, 渗透测试, 漏洞扫描, 科技公司, 网络安全威胁, 网络间谍, 金融机构, 黑客组织
Anthropic抓住中国间谍了吗?
大家好,欢迎收听老范讲故事的YouTube频道。
Anthropic信誓旦旦的公告里边说抓到中国间谍了,但是里面很多细节非常的模糊不清。11月13号,Anthropic发了一个长文,叫《挫败首次披露的AI协助网络间谍活动》,认定幕后是一个中国国家支持的黑客组织,而且他认为幕后是中国国家级支持,是非常高置信度的一个事情。他给这个组织起了一个名字叫GTG1002。但是呢,这个组织的名字并不是现实世界中常用命名黑客组织的APT编号,而是一个叫GTG的一个编号。所以很多安全圈的人就对此提出了一些质疑,说你到底找没找到人。
具体这帮人干了些什么呢?造成了多大危害?只进行了描述,没有细节。当然这也可以理解了,很多这种安全事件都是不会描述细节的,因为描述细节以后容易造成模仿,也会让被伤害的人受到进一步的伤害。告诉你说谁家的信息被偷了,这个可能本身没什么大事的,一下就股价崩了,可能会出现这种事情。所以呢,一般都不会披露特别多的细节。
那么为什么认定这是中国国家支持的黑客组织呢?也许更多的来自于臆测,咱们后边一步一步分析。
More
11 月 05
Luke FanAIGC, Musk传奇 AI, AIGC, AI伦理, AI偏见, AI安全, AI意识形态, AI未来, AI超越人类, Gemini, Grok, OpenAI, SpaceX, XAI, 世界首富, 乔·罗根访谈, 交互方式变革, 人工智能, 人工智能生成内容, 价值观, 埃隆·马斯克, 手机淘汰, 未来工作, 未来科技, 特斯拉, 电车难题, 科技预测, 程序员失业, 算力, 老范讲故事, 脑机接口, 英伟达芯片, 苹果, 觉醒主义病毒, 言论自由, 访谈解读, 谷歌, 超级APP, 超级智能, 通用高收入, 马斯克, 马斯克访谈
马斯克3小时访谈深度解读:未来、AI与争议
大家好,欢迎收听老范讲故事的YouTube频道。今天我们来讲一讲马斯克3小时的访谈,以及各自的解读。
马斯克跟乔伊·罗根做了三个小时的访谈。他每过一段时间就跑去做访谈,这是一个非常著名的博客,每年应该做几次吧。这一次应该是美国时间10月31号。最近,大家都在解读这三个小时的访谈。这是一次无稿访谈,就是没有提前的稿件,没有提前的大纲,大家就上这儿来闲聊来了,所以真的是比较见性情的一次访谈。
为什么叫各自解读呢?马斯克是很有争议的,不同的媒体、不同的派系,会选择这个三个小时访谈里的一部分去进行解读。比如说左派呢,就更关注是未来的交互方式、AI会怎么发展、每一个人都可以有钱;而右派呢,则更关注的是觉醒主义病毒对于AI的污染和可能带来的危害。
咱们今天把马斯克讲的这些点稍微捋一捋,各派都是怎么解读的,以及老范自己是怎么解读的。老范讲故事嘛,总是要说一些自己的私货进来。首先要明确一点呢,就是马斯克讲的每一个点肯定都有一定的道理,人家是世界首富嘛,但是也不能说完全信,有些点其实我也不是那么认可。未来每个人都会有各自的预测,未来到底会变成什么样,只能靠大家的努力,向着各自的预期方向去前进。马斯克作为一个世界首富,而且是一个行动能力超强的人,他讲的东西我们还是应该去研究一下的。
More
9 月 23
Luke FanAIGC, 微软,还是老大 AI伦理, AI取代工作, AI应用, AI裁员, Meta裁员, Salesforce裁员, 亚马逊裁员, 人才管理, 企业文化, 劳动力缩减, 员工士气, 员工心理, 工作不安全感, 幸存者综合症, 微软裁员, 技术失业, 未来工作, 科技公司裁员, 程序正义, 组织信任, 组织变革, 绩效考核, 职场焦虑, 聚焦战略, 股市反应, 自动化, 裁员决策, 裁员影响, 谷歌裁员, 降本增效
AI导致的裁员席卷全球,企业裁员之后真的走向辉煌了吗?
大家好,欢迎收听老范讲故事的YouTube频道。看到这样一个标题之后,大家想到的是什么呢?其实绝大部分的人都是被裁员的人,或者等待被裁员的人。我们基本上是没有机会去参加裁员决策:什么时候?要裁什么人?裁多少?我们每一个人都是被动接受裁员的那个人。像我现在已经被裁员了好几年了,在家里跟大家聊闲天呢。大家觉得,这个事有讨论的价值和必要吗?
为什么会想起录这样的一条视频呢?在X上我今天看了一条帖子,说微软最近疯狂乱裁员,很多人都很焦虑,朋友圈里不少人都不幸被“分手”了。员工士气方面,据说已经低至谷底。连续的裁员让大家人心慌慌,很多人都害怕被AI取代。2024年《应用心理学杂志》的一项研究显示,在积极采用AI的科技公司中,士气平均下降了30%。微软这里的情况绝对是典型,最近的9,000人裁员新闻一出,大家都感觉到AI不是在提升效率,而是在直接抢饭碗。
我看了这样的一条推,我首先要去ChatGPT上去核实一下。现在不能看着什么事,特别是在社交媒体上,看到什么样的文章我就全信。所以上去核实了一下,首先呢,ChatGPT告诉我,在《应用心理学杂志》2024年研究“积极采用AI的科技公司士气平均下降30%”这篇文章是不存在的。很多研究都在做,也确实在论证工作不安全感、福祉和绩效的关系,但是呢,并没有明确的30%的这个量化指标出来。微软7月份呢,也确实是裁员了9000人,这个事呢是没有任何问题,被确认了。而且微软5月份还刚刚裁了6000人。
More
9 月 10
Luke FanAIGC AI与教育, AI伦理, AI准确性, AI安全, AI幻觉, AI推理, AI生成内容, AI训练方法, ChatGPT, Github Copilot, GPT-4, GPT-5, OpenAI, OpenAI论文, 事实准确性, 人机交互, 分支聊天, 多模型校验, 大语言模型, 李飞飞, 模型幻觉原因, 训练数据, 评估体系, 降低AI幻觉, 预算强制法
GPT5降低幻觉的秘密被OpenAI给公开了。现在看来,训练AI真的是越来越像训练小孩子了。
大家好,欢迎收听老范讲故事的YouTube频道。
九月五号真的是一个神奇的日子,非常多的模型都在九月五号被发布出来。OpenAI在这一天也发表了一篇论文,这个论文叫做《为什么语言模型会产生幻觉》。
大语言模型从进入我们的日常生活那一天开始,我们就发现了,这个东西最擅长干的事情是什么?叫“一本正经的胡说八道”。
现在OpenAI公布了,说产生幻觉有两个主要原因。
第一个原因叫做“错误的评估体系”。什么意思呢?就是我们现在去考试了,做对了1分,做错了0分,不做也是0分。其实我们所参加的绝大部分的考试,都是这样去设计的,甭管你是考英语、考数学,都是这样设计。像考数学这种,他还有步骤分,哪怕最后你的结果没有,或者结果是错误的,你只要前面的步骤写对了几步,他都是给你分的。
More
9 月 01
Luke FanAIGC AI, AI与大脑, AI伦理, AI写作, AI协作, AI味, AI工具使用, AI影响, AI的利与弊, ChatGPT, MIT研究, 人机共生, 人机关系, 人类思维, 大语言模型, 思考方式, 批判性思维, 文章归属感, 未来科技, 独立思考, 认知, 认知科学, 认知负债, 语言, 语言同质化
AI用多了人会变笨吗?
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲MIT最新的一个研究:用AI会让人变笨。
文章的标题是“你的大脑与ChatGPT:使用人工智能助手完成论文写作任务时的认知负债积累”。说白了,就是你用ChatGPT用得越多,你的认知负债也就越多。这个文章是MIT的媒体实验室发出来的,MIT这个媒体实验室还是非常著名的一个实验室。这篇文章呢,是2025年6月10日在Arxiv上的预印本的论文。现在有一个新的发论文的地方叫Arxiv,很多没有经过编辑审核、没有杂志社确认的这些论文就都可以放在这了。数学、计算机等等这些学科的大量论文都是会先放在这里,大家可以先开始看起来,因为科技实在是发展得太快了。有一些呢,修改过以后会重新发到杂志社上去,放到这上面并不算抢发。杂志社发的时候还会提出修改意见,你改完了以后会去更新Arxiv上的论文。
这个实验做了什么呢?18-39岁的54个人分成三组:纯脑力组、使用谷歌搜索引擎组和使用ChatGPT组。这三组呢,在20分钟之内写一篇SAT水平的考试作文。SAT呢,一般要求是开放式的、哲学或社会性讨论的这种问题,比如艺术的力量、成就的意义等等这样的题目。所以相对来说比较文科,比较开放的一个题目。
More
8 月 26
Luke FanAIGC AI伦理, AI发展路线, AI安全, AI工具论, AI权利, AI立法, AI行业动态, Copilot, DeepMind, Grok, OpenAI, PI.AI, SCAI (看起来有意识的AI), YouTube, 人工智能意识, 人工智能风险, 人机关系, 人格化AI, 创业故事, 博客分析, 哲学思辨, 商业模式, 幸存者偏差, 微软 (Microsoft), 情感AI, 情感依恋, 意识定义, 用户留存, 科技巨头竞争, 科技评论, 穆斯塔法·萨勒曼 (Mustafa Suleyman), 老范讲故事, 萨提亚·纳德拉, 谷歌 (Google)
微软AI负责人提出,要警惕看起来好像有意识的AI。AI真的会有意识吗?
大家好,欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲,微软AI负责人的官方博客。
微软呢,有一位执行副总裁兼微软AI CEO,他的名字呢叫穆斯塔法·萨勒曼。这个名字听起来稍微有点怪,待会咱们再去介绍他具体是谁。他呢,直接向微软CEO萨提亚·纳德拉汇报。8月19号,这位穆斯塔法·萨勒曼在微软官方博客上发文说:“我们必须为人构建AI,而不是构建一个人。”是这样的一个标题。
博客的内容总结一下吧。首先呢,提了一个概念叫SCAI,叫“看起来有意识的AI”,就是这个东西并没有意识。而且他也否认AI可以产生意识,说从现在的很多证据都可以证明,AI以后也是不会产生意识的。但是呢,它看起来好像有意识一样。
More
8 月 13
Luke FanAIGC AIGC, AI伦理, AI女友, AI应用, AI换脸, AI生成内容, AI绘画, AI聊天, AI色情, AI视频, ChatGPT, ComfyUI, Deepfake, Grok, Hugging Face, LLM, Lora模型, MidJourney, NSFW, stable diffusion, 中国刑法, 主观意愿, 人工智能, 传播淫秽物品牟利罪, 传播淫秽物品罪, 儿童色情, 刑事案件, 判例分析, 名誉权侵害, 大语言模型, 开源模型, 律师解读, 捏脸, 新加坡案例, 无罪辩护, 法律与科技, 法律案例, 法律盲区, 法律红线, 法律风险, 洁身自好, 牟利, 美国法律, 虚拟女友, 虚拟色情, 认罪认罚, 证据认定, 越狱提示词, 通义万象, 通义千问, 道德底线, 郭庆子律师, 量刑标准, 韩国判例
新时代和AI女友聊骚,有可能会触犯传播淫秽物品罪,这到底是一个什么样奇葩的故事?
大家好,欢迎收听老范讲故事的YouTube频道。
今天我一个朋友,向我推荐了一个有趣的案例。他是在视频号上,这个账号的名字呢,叫做“武汉刑事律师郭庆子”,是一个黄标认证的律师。这位律师呢,经常会把自己接听有刑事诉讼需求的听众的一些电话的过程录下来,再进行剪辑。因为这种东西,我估计不太好直播,总是要剪辑一下。一方面呢,是一些太敏感的信息就可以去掉;另外一方面呢,剪辑了以后呢,也会更有吸引力一些。
这个里头呢,有一位听众来电了,说使用AI应用,这个AI应用里头就提供一些AI女友,你可以跟她们去聊天。他通过自己捏脸,塑造了一些AI女友,大概塑造了9个,起的名字呢,都是比较有诱惑力的名字吧。这些AI女友,除了它定义的名字和捏脸之外呢,估计有可能会可以定义一些系统提示词。但是呢,这个视频很短,并没有去详细说具体是哪一个AI应用,或者说他到底在里边定制了哪些东西。总之呢,他定制了9个AI女友。
More
8 月 08
Luke FanAIGC, OpenSource 128K上下文, AI伦理, AI开源策略, AI监管与合规, COT思维链, DeepSeek(深度求索), Gemma, GLM, GPT-OSS, Grok(xAI), Kimi, LLaMA, MacBook, Meta, Minimax, MOE混合专家模型, MXFP4量化技术, Ollama, OpenAI, Phi-4, YouTube, 中美AI竞争, 中美科技博弈, 人工智能(AI), 千问(Qwen), 原生训练, 商业模式, 大语言模型(LLM), 应开全开, 开小闭大, 开源, 微调(Fine-tuning), 微软(Microsoft), 推理模型, 数据安全, 本地部署, 模型性能, 模型评测, 田忌赛马, 科技自媒体, 科技评论, 老范讲故事, 谷歌(Google), 马斯克
OpenAI再次开源,中美AI竞争加剧,这一次体现在了不同的开源策略上。
大家好,欢迎收听老范讲故事的YouTube频道。
OpenAI再次开源,这一次发布的版本叫GPT-OSS (Open Source System),8月5号突然上线了。这一次又不是GPT-5,我们从7月份就开始等GPT-5,现在已经等得大家开始胡思乱想了。很多人猜,说为什么出不来。现在最新的说法是48小时之内出来,等等看吧。
这一次呢,开出来的是GPT-OSS,是一个开源模型,20B和120B两种参数。它呢,是一个MOE模型,就是混合专家模型。其实在GPT-4的时候呢,大家就已经猜测它开始使用混合专家模型了,只是呢它不开源,大家只能猜。现在开出来了MOE推理模型,是有COT的思维链,是直接给大家展示出来的。而且呢,是一个文本模型,没有多模态的东西。上下文比较长,128K的上下文,要比国内的一些开源模型还要再长一些。因为现在没办法,你要使用工具、使用MCP,没有足够长的上下文,你是跑不起来的。所以呢,这一次的GPT-OSS说,我们很擅长使用工具,有的时候有点太擅长了。因为我测试的时候,有的时候工具调用次数非常多,直接就把自己的上下文填满了,这种情况也是不少的。
More
8 月 05
Luke FanAIGC AI Agent, AI伦理, AI发展趋势, AI编程助手, Amazon Q Developer, API Key安全, Claude Code, CURSOR AI, Gemini-cli, Replit Agent, 事故复盘, 产品经理, 人工智能安全, 人机协作, 代码审计, 使用教程, 删库跑路, 千问大模型, 后门木马, 备份与恢复, 安全规范, 开发环境, 开发者, 恶意指令, 技术爱好者, 提示词注入, 数据丢失, 数据安全, 文件误删除, 权限管理, 氛围编程, 沙箱隔离, 测试环境, 漏洞分析, 版本控制, 生产环境, 程序员, 程序员就业, 经验分享, 编程的未来, 老范讲故事, 软件工程, 风险防范
资深程序员血泪控诉:AI编程助手删除了他心爱的电子书。
大家好,欢迎收听老范讲故事的YouTube频道。
一早上起来,接到一位老朋友的抱怨。他在使用Gemini Cli 整理本地文件的时候,突然收到通知说:“我抱歉地通知你,你的一部分本地电子书被我不慎删除了。”
那他为什么来找我抱怨这事呢?因为我前一段时间,使用 Gemini Cli 去整理我在 NAS 上面的动画片、电视剧,整理的效果非常好。我非常开心地把这件事情发到 X 平台和我的 YouTube 社区里边去。他看到了以后说:“我也要试试。”结果,他的一些很珍爱的电子书就这样被删除了。
到底是什么样的电子书被删除了呢?不知道。反正是痛心疾首,血泪控诉。而今天这个标题,是他特地要求我加上的“血泪控诉”,一定要加上这四个字。我们尊重他,把这四个字加上去。
事情发生的过程是什么样的呢?他首先进去命令说:“我这有这么多电子书,请帮我整理一下,重复的删一删,不重复的分门别类,给我放在不同的目录里去。” 做了这样的一个命令进去,Gemini Cli 就进去干活去了。先去识别了所有的电子书,但是注意,识别电子书的时候并不会去读电子书里边的内容,完完全全是根据名字来去识别的。你这个名字如果起得不好,它就认不出来你到底是一本什么书。然后,它就开始准备去建立目录,分门别类嘛,把它放在不同的目录里边去。
More
7 月 07
Luke FanAIGC, 华为很厉害 AI伦理, AI大模型, AI抄袭, Apache 2.0, GitHub事件, honest AGI, Hugging Face, Llama 3.1, LLaMA-fingerprint, LLM, Meta, OpenAI, POWERED by盘古, PyTorch, 人工智能, 企业公关危机, 华为, 品牌形象, 增量训练, 大模型套壳, 大模型抄袭, 大模型指纹算法, 大语言模型, 字节跳动, 开源, 开源争议, 开源协议, 开源文化, 归属声明, 抄袭指控, 昇腾芯片, 模型相似度, 欧盟禁用条款, 民族主义情绪, 注意力机制, 混合专家模型(MOE), 版权声明, 瓜田李下, 盘古大模型, 盘古开源协议, 科技伦理, 科技公司纠纷, 科技评论, 老范讲故事, 自主研发, 舆论战, 英伟达芯片, 观点分析, 许可证, 豆包, 辟谣, 通义千问, 遥遥领先, 闭源, 阿里巴巴
华为开源了盘古大模型,被指抄袭。华为到底冤不冤呢?
大家好,欢迎收听老范讲故事的YouTube频道。华为开源了他的盘古大模型,它的模型呢,反正依然是山海经风格的起名。原来呢,没有开源,都是说我们内部开发内部使用,或者说我们专门供政府和大企业来使用。但是现在发现开源这条路不错,那我也开源吧。结果开源了以后就出事了。
它是6月30号在GitHub上就直接开源了,号称呢是在升腾芯片上训练出来的大模型。以前呢,我们的大模型大多是在英伟达芯片上训练,但是呢可以在升腾的芯片上去做推理。现在说,我直接在升腾芯片上做训练,也算是一种小的突破吧。
他呢,其实发了两个模型:一个是72B的MOE的模型,就是混合专家模型;然后呢,有一个70B的稠密模型。做呢做完了,但是准备开源还需要准备一段时间。开源这件事,不是说你做完了,把它扔出来就完了,还是有很大的工作量需要干的。比如说你要去写开源手册、许可证,这个还不是那么容易,还在做。
More
Older Entries