上下文工程(Context Engineering)爆火,是AI圈又一次造词狂欢还是真革命?拆解其核心理念,对比GPT、Gemini、豆包等主流模型在该框架下的表现与优劣,帮你选择最强工具。
7 月 08
AIGC AI Agent, AIGC, AI产业, AI幻觉, AI应用开发, AI趋势, Claude 3, DeepSeek, Few-shot (少样例提示), Gemini 2.5 Pro, GPT-4o, Grok, JSON输出, LangChain, LLaMA, LLMOS (大模型操作系统), MISTRAL, OpenAI, RAG (检索增强生成), Shopify, Simon Wilkinson, 上下文工程 (Context Engineering), 上下文窗口 (Context Window), 上下文隔离, 信息压缩, 函数调用 (Function Calling), 大语言模型 (LLM), 安德烈·卡帕西 (Andrej Karpathy), 工具调用 (Tool Calling), 技术解读, 提示词工程 (Prompt Engineering), 模型稳定性, 特斯拉, 程序员, 系统提示词, 英伟达 (Nvidia), 豆包大模型, 软件2.0 (Software 2.0), 通义千问, 长期记忆 上下文工程(Context Engineering)爆火,是AI圈又一次造词狂欢还是真革命?拆解其核心理念,对比GPT、Gemini、豆包等主流模型在该框架下的表现与优劣,帮你选择最强工具。已关闭评论
上下文工程又有新词了。AIGC不怎么赚钱,造词的速度还是非常非常快的。大家好,欢迎收听老范讲故事的YouTube频道。
提示词工程已经稍微有点过时了,现在的新词叫上下文工程。提示词工程长什么样,大家还记得吗?就是上来先说你是谁,谁先给大模型定一个位置。比如说你是一个资深翻译,你是个语文老师。然后呢,说我现在想要干一点什么事情了,给我出个题,给我做个翻译,再给他一个简单的例子,说你照这样给我把东西做出来。
光有提示词呢,肯定是不够的。除了刚才我们讲的完整的、结构化的提示词之外,你还是需要很多相关的上下文,才能够让大模型稳定的输出结果。那你说我们继续把提示词写长不就行了吗?我还见过那种直接写出几百字或者是上千字小作文的提示词。这个是不是可以继续往前走呢?不行了。因为你如果继续叫提示词工程呢,会容易引起误解。大家觉得只要不断的把提示词写长,就可以把这事解决掉。但其实除了提示词之外,还有非常非常多的上下文数据需要一起写进去,才能够让大模型稳定的输出我们所预期的、有价值的结果出来。
所以呢,就不能继续叫提示词工程了,一定要起个新词。而且呢,AI时代呢,起新词是非常重要的,因为可以吸引眼球。只有足够吸引眼球的东西,才有发展的前景。所以在这个时候,上下文工程就来了,一个新词诞生了。
More