12 月 14
Luke FanAIGC AI benchmarks, AI for developers, AI use cases, AI workflow, AIGC, AI推理能力, AI模型对比, AI编程, Claude 4.5 Opus, developer productivity, Garlic model, GDP val, Gemini 3 Pro, Google AI, GPT-5.2, GPT-5.2 pricing, GPT-5.2 vs Gemini 3 Pro, GPT-5.2性能, GPT-5.2评测, LM Arena, OpenAI, Robin high model, 上下文处理, 专业知识工作者, 人工智能, 代码重构, 大语言模型, 科技评测, 结构化输出, 长上下文
GPT-5.2我已经用了两天了,效果到底怎么样?
大家好,欢迎收听老范讲故事的YouTube频道。
GPT-5.2:应对Gemini的“红色警报”产品
GPT-5.2是12月11日发布的,它是在OpenAI的十周年生日这一天发布的。虽然ChatGPT-3.5,我们记得是有三年,但是在这之前,OpenAI已经苦逼了好多年了,所以这是OpenAI自己的十周年生日礼物。这个产品,应该是应对谷歌的Gemini 3 Pro的一个紧急版本,是在GPT-5的基础上进行了调整和训练得到的,更加注重长时间推理结果,结构化的输出更像系统,也就是更不像人。这个东西很多指标都遥遥领先,当然还有一个重要的特点——就是更贵。
两天来的个人使用感受
优点:输出质量显著提升
用了两天了,我自己使用的感受是什么样的?输出的结果确实要比GPT-5.1要好很多,它的输出结果更全面、更准确,而且输出的结果整个的排版格式也是非常舒服的。
缺点:速度极慢与应对策略
但是,好慢好慢好慢!重要的事情说三遍,这个东西真的是很慢。当然,也有可能是新版本刚发布,用的人很多,但确实是慢,让我把默认的thinking模式都给取消了,改成了自动模式或者直出模式。自动模式就是它根据你的问题来判断是thinking还是直出;如果是直出模式的话,就是不判断,直接给结果就完事了。当然了,我还有一个方式来应对速度,就是在GPT旁边再开个豆包,豆包是相对来说要比它快很多的。
More
11 月 23
Luke FanAIGC, Google的故事 4K图像, AI Studio, AI图像生成, AI绘画, Gemini 3 Pro, Gemini API, Gemini使用教程, Google AI, MidJourney对比, Nano Banana Pro, Nano Banana Pro价格, Nano Banana Pro免费, Nano Banana Pro测评, PPT设计, 信息图表, 图像编辑, 多图融合, 多模态AI, 搜索增强绘图, 文字渲染, 文生图, 自然语言修图, 角色一致性, 谷歌AI绘画
Nano Banana Pro发布了,它在Nano Banana的基础上到底做了些什么新东西?
大家好,欢迎收听老范讲故事的YouTube频道。
大家等了半天的Nano Banana 2没有来,出来的是Nano Banana Pro。当然,前面Nano Banana Pro也是隐姓埋名,在各种的大模型评测平台上偷跑了好长时间。所以很多人呢,信誓旦旦地说:“我已经用到了这个东西,强的没边了。”现在终于发布出来了。
从Nano Banana到Nano Banana Pro:核心区别是什么?
从名字上呢,一个叫Nano Banana,另外一个呢加了个Pro,它们到底差在哪呢?原来的Nano Banana,其实是叫做Gemini 2.5 Flash image。现在的Nano Banana Pro呢,它背后的模型是Gemini 3.0 Pro image,是两个不同版本。而且一个呢是Flash,一个呢是Pro。Flash一定是比较快,出来的东西呢相对比较粗糙;而Pro的话,出来的东西就会比较笨重了,或者说比较昂贵,而且出来的东西非常非常细致和完善,它们核心的区别就在这里。
Nano Banana也是先在外边测试了很久然后才发布,这个名字也是当时他们测试的时候使用的名字。当然这一次测试呢,并没有叫纳米香蕉,这次换了个名字,因为纳米香蕉这名字你用过了嘛,好像叫GENIMG,大概是这样的一个名字去测试的。
More
5 月 09
Luke FanAIGC, Google的故事 A2A协议, AI Agent, AI协作标准, API设计, Function Calling, Gemini, Google AI, HTTP, JSON, LLM, Lotus Domino, MCP模型上下文协议, OpenAI, SharePoint, SOA (服务导向架构), SSE, YouTube频道, 人工智能, 历史失败案例, 复杂系统风险, 大语言模型, 屎山代码, 开发者视角, 异构系统集成, 异步处理, 微服务, 技术史借鉴, 技术演进规律, 技术评论, 技术选型, 智能体互操作, 智能体协作, 看起来很美就不要想得太美了, 科技趋势解读, 程序员经验, 系统设计, 老范讲故事, 谨慎评估, 谷歌A2A, 跨平台协作, 软件架构, 顶层设计批判
谷歌的A2A看起来很美,就不要想得太美了。
大家好,欢迎收听老范讲故事的YouTube频道。
“看起来很美,就不要想得太美了。”这句话哪来的呢?来自于猫腻的小说《将夜》。这个里面有一句话叫:“你长得很美,所以就不要想得太美了。”事情是在哪呢?是在隆庆皇子看到桑桑酒量很好,就想收其为侍女。桑桑呢,是里面的一位女主,而隆庆皇子呢,长得很漂亮,而且身份地位非常高,手持大义的一个人。他提出了这样的一个要求,当时的主人公宁缺就进行了反击,说:“你长得很美,就不要想得太美了。”意思是什么呢?就是保持对现实的清醒认知,你要知道自己是谁,几斤几两。而且呢,也要敢于对强权逻辑进行挑战。
那么,这个事儿跟今天咱们要讲的谷歌A2A有什么样的关系呢?首先先讲一下,谷歌A2A到底是个什么东西。
More