7 月 15
Luke FanAIGC, Musk传奇 20万H100显卡, 256K上下文, AI大模型, AI安全中心, AI融资, AI进程改变, API调用, Claude, DeepSeek, Elon Musk, Gemini, Grok Heavy, Grok2, GROK3, GROK4, LLaMA, OpenAI, Oracle云, Scale AI, XAI, 三体小说, 中美AI差距, 人类终极测试, 企业私有部署, 众包题库, 动态任务池, 华为盘古, 南京大屠杀, 南非白人种族屠杀, 多智能体合作, 多模态AI, 川建国, 工具支持, 市场占有率, 开源承诺, 强化学习, 意识形态投毒, 技术爆炸, 推理能力, 日本烟花事件, 昇腾芯片, 模型蒸馏, 模型迭代, 理工男模型, 电力消耗, 科研提速, 算力竞争, 编程工具, 视频生成, 越狱提示词, 过拟合预防, 预训练模型, 马斯克发布会, 黄仁勋访华, 黄色小说生成, 黑暗森林法则, 黑色幽默
史上最聪明的AI大模型GROK4诞生了。马斯克亲自坐镇开发布会。视频发布会呢,并不是特别的顺畅。第一个呢,是他晚了一个小时,也没说为什么。反正马斯克的直播经常会晚。然后呢,太多的东西需要集中发布,上下衔接的呢比较仓促一点。
最早期很多的互联网公司开发布会也是这样的,两三个小时七差咔嚓发一大堆东西。后来OpenAI这些公司习惯了在网上开直播以后呢,就慢慢把这风格改了。改成什么呢?就是每次发一个功能,发个十分钟二十分钟就完事了。然后呢,不停的发,每个月发每个月发。Xai呢,现在还没有彻底学会这件事情,还是一股脑给大家扔了一大堆东西出来。
我们以前在面对创业者的时候,每次都会苦口婆心的去做一种劝告。大家可能不知道会劝什么。作为投资人来说,我们每次看到任何一个创业者,都会上去劝一件事,叫不要憋大招。你一次要惦记着做一个大的东西,就很容易失败。你应该是做一些小的东西,一点一点放出来。OXAI现在还是憋了一个大招。当然了,XAI后面呢,也会每个月发布一个新的工具出来,它也慢慢的向这样的一个方向去前进。
More
7 月 08
Luke FanAIGC AI Agent, AIGC, AI产业, AI幻觉, AI应用开发, AI趋势, Claude 3, DeepSeek, Few-shot (少样例提示), Gemini 2.5 Pro, GPT-4o, Grok, JSON输出, LangChain, LLaMA, LLMOS (大模型操作系统), MISTRAL, OpenAI, RAG (检索增强生成), Shopify, Simon Wilkinson, 上下文工程 (Context Engineering), 上下文窗口 (Context Window), 上下文隔离, 信息压缩, 函数调用 (Function Calling), 大语言模型 (LLM), 安德烈·卡帕西 (Andrej Karpathy), 工具调用 (Tool Calling), 技术解读, 提示词工程 (Prompt Engineering), 模型稳定性, 特斯拉, 程序员, 系统提示词, 英伟达 (Nvidia), 豆包大模型, 软件2.0 (Software 2.0), 通义千问, 长期记忆
上下文工程又有新词了。AIGC不怎么赚钱,造词的速度还是非常非常快的。大家好,欢迎收听老范讲故事的YouTube频道。
提示词工程已经稍微有点过时了,现在的新词叫上下文工程。提示词工程长什么样,大家还记得吗?就是上来先说你是谁,谁先给大模型定一个位置。比如说你是一个资深翻译,你是个语文老师。然后呢,说我现在想要干一点什么事情了,给我出个题,给我做个翻译,再给他一个简单的例子,说你照这样给我把东西做出来。
光有提示词呢,肯定是不够的。除了刚才我们讲的完整的、结构化的提示词之外,你还是需要很多相关的上下文,才能够让大模型稳定的输出结果。那你说我们继续把提示词写长不就行了吗?我还见过那种直接写出几百字或者是上千字小作文的提示词。这个是不是可以继续往前走呢?不行了。因为你如果继续叫提示词工程呢,会容易引起误解。大家觉得只要不断的把提示词写长,就可以把这事解决掉。但其实除了提示词之外,还有非常非常多的上下文数据需要一起写进去,才能够让大模型稳定的输出我们所预期的、有价值的结果出来。
所以呢,就不能继续叫提示词工程了,一定要起个新词。而且呢,AI时代呢,起新词是非常重要的,因为可以吸引眼球。只有足够吸引眼球的东西,才有发展的前景。所以在这个时候,上下文工程就来了,一个新词诞生了。
More
6 月 11
Luke FanAIGC, Meta的故事 AI产业链, AI伦理, AI大模型, AI技术, AI投资, AI数据, AI算力, DeepSeek, FTC, H100, H800, LLaMA, Llama 4, Meta, OpenAI, Sam Altman, Scale AI, YC, 亚历山大王, 亚马逊, 华人创业, 合成数据, 商业分析, 微软, 扎克伯格, 数据垄断, 数据标注, 模型微调, 科技巨头并购, 科技行业动态, 科技评论, 美国国防部, 老范讲故事, 自动驾驶数据, 英伟达, 谷歌
Scale AI得到了Meta超过百亿美金的投资,AI圈又热闹起来了。大家好,欢迎收听老范讲故事的YouTube频道。
Scale AI这个名字怎么好像在哪听说过呢?好像有点耳熟,对吧?他呢,有一位特别传奇的CEO,或者叫创始人吧,叫华人天才少年CEO亚历山大王。当时呢,跳出来指责DeepSeek用H100的就是他。
DeepSeek R1到底是怎么训练的?引起了广泛的关注。DeepSeek自己讲呢,我使用了2,000多块的H800就完成了训练。但是亚历山大王呢,在一次接受采访的时候就出来说了,中国实验室里边拥有的H100的数量远超大家的想象,DeepSeek自己至少有5万块H100。但是这个话呢,没有实际证据,讲完了也就完了。DeepSeek跟亚历山大王之间呢,并没有就这个事情进行认真的探讨,所以这个我们把它当成一种谣传吧。
3月份呢,DeepSeek自己再次发了声明,说他们训练的都是使用的合规的GPU,也就是允许向中国出口的这些GPU。因为如果不说这个的话,美国就有可能要求说禁止使用这玩意儿。DeepSeek就讲了说,甭管是R1也好,V3也好,训练呢都是使用的H800,或者是后面的H20这些GPU训练的。
More
5 月 05
Luke FanAIGC, Meta的故事 2023年, 2024年, 2025年预测, AI Agent, AIGC (AI Generated Content), AI发展, AI战略, Anthropic, API服务, ChatGPT, DeepSeek, Facebook, Gemini, Google, GPT-4o, Grok, Groq, LLaMA, LLAMA API, LLAMA Con, LLAMA发布历史, Meta, Meta AI APP, OpenAI, Qwen (通义千问), XAI (马斯克), 云计算, 亚马逊云, 产品体验, 人工智能, 元宇宙战略影响, 免费策略, 商业模式, 大语言模型 (LLM), 字节, 应用程序 (APP), 开发者大会, 开源模型, 微软云, 战略失误, 战略惯性, 扎克伯格, 扎克伯格 (Mark Zuckerberg), 技术社区, 播客内容, 智能眼镜, 杨乐坤 (Yann LeCun), 杨乐坤观点, 模型对比, 流量入口争夺, 深度学习, 百度, 社交优势, 科技评论, 竞品分析, 老范讲故事, 腾讯, 腾讯元宝, 行业分析, 起了个大早赶了个晚集, 追赶者, 阿里, 马斯克 (Elon Musk)
Meta召开LLAMA Con开发者大会。他原来丢的这些课程,现在补还来得及吗?
大家好,欢迎收听老范讲故事的YouTube频道。4月29号,Meta召开了首届的LLAMA CON开发者大会。Meta原来是开open大会,他反正每年都会开一到两次的这种开发者大会,这是开了第二次开发者大会了。这一次呢,主要就是对LLAMA进行了一些发布。前面LLAMA4已经发布过了,而且发完了以后还翻车了。现在呢,Meta说我也要去补课了。
补什么课呢?第一个是我要出一个独立的APP智能助手,叫MetaAI APP,对标ChatGPT。另外呢,我要开始面向开发者直接提供官方的LLAMA API服务了。这块呢,还准备去跟Groq这些芯片厂商去合作去,我帮他们去部署。现在呢,LLAMA的这些服务都是免费给大家使用的,LLAMA API未来有可能会收费。
你说人家OpenAI一出ChatGPT就开始给大家提供服务,APP也出了这么长时间了。这Meta真的是起了个大早赶了个晚集,到今天才想起来说我的这些API也要为大家服务了,我的APP也要为大家服务了,还来得及来不及?
More
2 月 11
Luke FanAIGC, DeepSeek大模型 2025美中脱钩法案, 360智能云, AI与股市, AI云服务, AI产业链, AI产业革命, AI公司估值, AI公司分析, AI发展趋势, AI国际化, AI大模型, AI开源技术, AI开源模型, AI技术划时代, AI技术合作, AI技术壁垒, AI投资趋势, AI推理芯片, AI核心技术, AI概念股, AI模型免费, AI模型统一, AI生态统一, AI股票涨停, AI行业投资, AI革命, ASIC芯片, DeepSeek, DeepSeek R1, Deepseek V3, DeepSeek与英伟达, DeepSeek国运创新, DeepSeek影响力, DeepSeek技术解析, DeepSeek股票影响, DeepSeek部署, GPU, Josh Holy, LLaMA, TPU, 东升西降, 中国AI, 中国AI崛起, 中国AI未来, 中国移动, 京东云, 人工智能禁令, 全球AI竞争, 全球AI部署, 六小虎, 华为盘古, 博通, 国运级创新, 国运级创新意义, 国际AI格局, 大模型微调, 字节豆包, 开源大模型, 概念股, 游戏科学, 火山引擎, 百度, 百度智能云, 硅基流动, 科技公司涨停, 美股蒸发, 腾讯, 腾讯浑元, 英伟达, 金山云, 阿里云, 阿里千问, 黑神话悟空
第二个故事:DeepSeek到底是不是国运级的创新呢?国运级创新这个事呢,是游戏科学的创始人兼CEO冯骥他去讲的。DeepSeek是一个国运级的创新。游戏科学,就是黑神话悟空的这个开发商。DeepSeek呢,也确实让美股市值蒸发了很多很多钱。而且还有一位美国的参议员说:“我们要下最严格的法令来禁止DeepSeek。谁敢下载DeepSeek判20年,哪个企业敢去用DeepSeek罚1亿美金。”
这个是个共和党参议员叫Josh Holy,写了一个法案,叫2025年美国人工智能能力与中国脱钩法案。禁止技术交流与使用,禁止美国公民、企业与中国开展任何AI技术合作,包括研发、投资、数据共享等。非美国公民若涉及技术转移,可以驱逐出境。然后切断资本与人才流动,禁止美国资本对中国AI企业投资,并限制美籍科研人员参与中国AI项目。任何与中国高效实验室合作的美国机构将面临重罚。违反本法案的个人将被视为严重犯罪分子,可能影响其移民身份、绿卡申请和入籍资格。美国公司不能直接或间接向中国企业提供AI技术支持或者服务。但是这个法案呢,因为太过极端已经被搁置了。
先讲一下使用DeepSeek的方式到底是什么样的。如果你在美国使用DeepSeek,那千万千万不要去DeepSeek网去挂,那是根本得不到服务的。最好是什么呢?就是去在美国的云主机上去使用。现在DeepSeek自己的网站基本上是半瘫痪状态,聊两句就趴菜。我基本上是第一句能聊,第二句能聊,第三句你再怎么跟他聊都趴。他是这样的一个状态。你可能明天再跟他聊,还可以聊两句。API调用的话非常非常慢。而且呢,现在禁止充值了。整个春节期间,API调用的这个页面就打不开了,把整个API后台给你封掉了。现在的话是后台重新有了,但是不允许充值。现在呢,国内是各种云上都有,国内的是阿里云、腾讯云、华为云。华为云的DeepSeek呢。
More
7 月 25
Luke FanAIGC, Meta的故事, OpenSource 405B版本, AI上下文窗口, AI事实标准, AI产业方向, AI产业链, AI偷跑事件, AI公司发展, AI创新挑战, AI创新推广, AI功率需求, AI协议限制, AI商业机会, AI商业模式, AI多模态, AI多语言支持, AI宏大模型, AI市场分析, AI应用前景, AI开源协议, AI性能测试, AI性能超越, AI技术合作, AI技术商业化, AI技术应用, AI技术投资, AI技术支持, AI技术突破, AI技术革新, AI显卡需求, AI未来趋势, AI标准化, AI模型优化, AI模型开放, AI模型电费, AI法律框架, AI生态价值, AI生态系统, AI生态系统发展, AI硬件需求, AI磁力链, AI空调耗电, AI能耗问题, AI行业分析, AI行业动态, AI行业趋势, AI计算能力, AI训练成本, AI训练数据, AI训练时间, AI语言支持, GPT-4对比, GPT-4跑分, HIKING face数据集, LLaMA, Llama 3.1, Llama 3.1 405b, Together AI, 中国AI厂商, 中国AI厂商冲锋, 中美科技博弈, 多模态支持, 开源与闭源, 拉玛模型争议, 梅塔与中国, 梅塔公司, 模型微调
Llama3.1 405b突然开放,指标上全面超越GPT-4。中国厂商们是不是又可以充了呢?大家好,这里是老范讲故事的YouTube频道。今天咱们来讲一讲Llama3.1 405b 开放的事情。
Llama的开放,每一次都比较有戏剧性,都会有偷跑。什么叫偷跑?就不是由官方开了发布会,说我今天发布了一个什么产品,而是一般都是在Reddit这样的论坛里,突然就有人放出磁力链来,大家可以去BT下载Llama3.1 405B,包括Llama3.1 405B相关的各种测试数据,都是这么被发现的。头一天偷跑了以后,第二天梅塔说那算了,我开了吧。当时好像Llama2也是这么开出来的,现在Llama3.1 也是这么偷跑,完了以后就正式开放了。
他在跑分上已经全面地超越了GPT-4,基本上在各个指标上都超越了。这是非常非常难的,因为以前大家推出的各种模型里头,都是在个别指标里面超越GPT-4O或者超越GPT-4。那么在各项指标上全都超越的,这应该是第一次。当然了,它也是分很多版本的,分为8B、70B以及405B这三个版本。405B已经完全超越了,下面小一点的8B,应该比原来的Llama370B的效果还要再好一些。它的70B基本上针对前两天发布的GBT4OMINI,属于碾压状态。
More
5 月 06
Luke FanAIGC AI和文化的交融, AI大模型, AI技术应用, AI挑战, AI模型效果, AI模型训练, AI的文化影响, AI的未来, AI研究, AI训练, English, GPT-4, LLaMA, 中文语料, 中文语料库, 中科院, 人工智能, 人工智能教育, 人工智能测试, 人工智能的智慧路径, 人类创造力, 内容创作, 哲学, 哲学思考, 哲学的现代应用, 哲学语录, 图灵测试, 大数据训练, 大智若愚, 大模型训练, 小红书, 幽默, 幽默与哲学, 幽默哲学, 幽默文化, 开源数据, 开源数据集, 开源贡献, 开源资源, 弱智8, 弱智吧, 技术影响, 技术解读, 抖音, 教育科技, 数据开放, 文化现象, 文化评论, 文字游戏, 文心一言, 智慧体现, 机器学习, 机器智慧, 模型优化, 模型微调, 滑铁卢大学, 百度贴吧, 社交媒体互动, 社会文化, 科技与文化的桥梁, 科技创新, 科技发展, 科研成果分享, 简体中文, 繁体中文, 编程能力, 编程逻辑, 网络传播, 网络幽默, 网络幽默的力量, 网络文化, 网络热点, 网络社区, 网络趣味分析, 脑筋急转弯, 训练数据集, 语料库, 语料训练, 语言模型, 语言的力量在AI中的应用, 语言艺术, 跨界影响, 逻辑分析, 逻辑思考, 逻辑挑战, 逻辑推理, 零一万物, 高质量语料
大家好!欢迎收听老范讲故事YouTube频道。今天咱们来讲一讲“弱智吧”。
“弱智吧”是什么呢?它实际上是一个百度贴吧,里面有很多独特、简短的文字,带有哲学、脑筋急转弯、幽默感,甚至很优美的内容。大家会说:“我们是弱智,我们要到弱智吧里面去,贴一些弱智的内容,贴一些弱智的问题和答案。”但随着时间的积累,人们发现,这正是“大智如愚”的体现。弱智吧的很多内容也被大家筛选出来,贴到小红书、抖音等各个平台上,惊艳了一大片人。
这真是非常神奇的事情。有人感慨:“我们很聪明的人没有惊艳到别人,而是一帮‘弱智’惊艳到其他人了。”弱智吧里有些什么样的经典语录呢?比如“吃什么补什么”,告诉我们“吃苦成不了人上人,只有吃人才行”。这样的内容看似无厘头,但仔细思考,你会发现吃人才是成为人上人的唯一原因,因为“吃什么补什么”。它巧妙地结合了中国传统文化的内容。
还有其他有趣的例子:“工人罢工之后就成了人”,“原来你是工人”;“四川人至死不渝,重庆人乐不思蜀”,这两个相邻的省份和直辖市,四川人似乎到死都不愿去重庆,而重庆人却乐在其中。
More