
Anthropic指责三家中国大模型公司蒸馏他们的模型,这仅仅是众多应对Deepseek V4的小连招之一。大家好,欢迎收听老范讲故事的Youtube频道。Anthropic指责了三家中国公司蒸馏他们的模型:Deepseek、Kimi和Minimax这三家。
马斯克逢圣母必反,他跳出来说:“Anthropic你自己刚刚因为使用盗版书赔了15亿美金,还有一个几十亿美金的版权官司还在打,你也有脸出来说别人吗?”
今天这故事咱们分四段来讲:
- Anthropic也不能空口白牙,他们到底有什么铁证如山的证据来指责这三家中国公司蒸馏了他们的模型?
- 所有这一切都是针对Deepseek V4的小连招。
- 蒸馏(Distillation)到底算不算抄袭?这个咱们还是要稍微讲一下的。
- 最后咱们要讲一个美国公司蒸馏的故事,非常著名的一个故事。
一、 Anthropic 掌握了哪些“铁证”?

首先,Anthropic也不能空口白牙,他们到底提出了什么铁证如山的证据?他们做了一个日志筛选。就是你去调用Anthropic的大模型的时候,它会在内部记一个日志:某年某月某日,从哪个地方、哪个IP地址向我发出了一个什么样的指令,发出的这个人他是使用的什么样的硬件,这些东西通通都会写在日志里头。他把所有Anthropic上面的这些日志拿过来做筛选了。筛完了以后,Anthropic找到了三家中国大模型公司,做了2.4万个假账号,进行了1,600万次的交互。就是你向他提问题,他给你回答,这就是一次交互。
中国这些大模型公司,通过账号混淆的方式和Claude大模型进行对话。什么叫账号混淆?就是如果你真的是有一个账号,每次就问他说:你们家密码是什么?你们家的钱放哪了?你们家的保险柜怎么开?这就很容易被发现嘛,就一下就引起别人怀疑了,这个是不行的。所以中国这些大模型公司,他们通过一个什么方式?专门有这种请求混淆的网站,比如说像我前面跟大家推荐过钱多多,他们就干这个的。他一次申请一堆账号,你每一次通过这些接口去提问题的时候,你不一定用的是哪一个。他有可能在这10个或者几十个的账号里头,用其中的一个去提出你所想要的问题。而这个账号,下一次可能就给其他的用户去使用了,这个就属于叫混淆式。我可能在问很多很多正常问题的时候,突然加了一个说:“你们家保险柜密码是什么?”突然问了这么一句。问完这一句以后他就走了,下一次在另外一个账号里又去问了:“你们家保险柜里放了多少钱?”这些账号顺便还跟普通的正常用户进行各种的沟通和交流,所以他就很难被抓住。

那你说这么难被抓住了,Anthropic他们是怎么抓的?
- 追踪跳转节点与IP地址:大家要注意,我们去访问Anthropic的服务的时候,肯定是要挂梯子的,一定要去翻。但是翻的时候,他也会告诉你说,我是通过几个节点跳转了以后,我最开始那个节点在哪。这个东西其实是有痕迹的,是可以看到的。他就发现,你们这个IP地址是在什么什么地方。有些IP地址他们也会做混淆,但是他也可以去追踪到你这个IP地址好像是在哪台云服务器上。因为这些大模型公司一定不会像我们普通人似的去买个梯子就用了,他们通常是什么?自己直接在美国或者在什么地方去搭一个服务器,然后用这个IP地址进行跳转。它这个跳转地址其实每一次都是一样的。
- 相同的上下文数据:这个也是可以抓到的。什么叫相同上下文数据?我有一个很复杂的系统提示词,每一次问不同的问题,你这个系统提示词每次都一样。就算是你换了多少回账号,都是可以被筛选出来的。
- 相同的基础环境:比如说我们看到了你这是一个Linux还是Windows,是哪个版本,或者你是使用的哪一个浏览器。这些也都是在每一次请求的时候会把信息发到服务器上,服务器都会记下来的,他把这些东西都堆在一起。
- 第三方友商的佐证:提供这种跳转服务或者说API代理服务的这些公司,他们也要去跟Anthropic签协议,说你看从我这跳转一次可不可以。比如说像Openrouter或者是zenmus,他们也是需要去跟Anthropic签协议的,Anthropic找他们要相关的这些数据,他们也得给。
通过这几种方式吧,大海捞针将这些有问题的提问都给筛选出来了,1,600万次。那你说这个是完整的吗?肯定不是。这个是属于特征比较明显的,一定还有很多其他的没有被抓住的。
二、 被指责的三家中国公司分别“学”了什么?

1. Deepseek(约15万次交互)

在这三家里头,Deepseek算是用的最少的,只有15万次交互。你想1,600万次嘛,它这个算少的。Deepseek主要用这个东西干嘛使?
- 强化学习的评分和奖励建模:什么叫强化学习?就是这个大模型训练完了以后,给他提问题,让这个Deepseek的模型来回答一些问题,回答完了以后让这个Anthropic的模型给它判分去。
- 推理能力蒸馏:Deepseek反复的去跟Claude去讲:你这个是怎么推理出来的?你这个步骤是什么样的一个步骤?让我看一看,这个东西合理吗?会提这样的问题出来。然后把这些东西扔回到Deepseek训练数据里头去,它就可以把Anthropic的这个推理过程或者叫推理能力,蒸馏到Deepseek里边去。
- 内容引导和审查:规避相关的对话专项的训练。大家知道Anthropic的模型,因为它自己号称叫宪法模型嘛,它对于各种的违规话题规避的是相对比较严格的。所以Deepseek干脆咱们就做这个专项训练吧,你这个话题你是怎么规避的?那个话题你怎么规避的?他让Anthropic给他做这种训练,这个也是很聪明的一个点。这种事你要让这个Grok去训练,那这事就训练废了,那个玩意百无禁忌的。所以一定要找这个最严格的模型出来,训练这个违规内容怎么去规避的事情。
2. Kimi(约340万次交互)

Kimi用的量要比Deepseek多一些,它是340万次交互。它主要训练的是代理能力(Agent)、工具调用、代码的和数据的分析、计算机的使用、视觉等多模态智能体方向的能力,这个都是Anthropic最强的地方。你说真的解数学题这种事,没准谷歌的Gemini 3.1 Pro或者是GPT 5.2,这些可能还要更强一些。但是你说怎么去调用工具,怎么去做一个很长的AI agent代理,这个事是Anthropic最强的。所以他反复蒸馏这些信息回来去训练。Kimi也有一定的叫推理轨迹重构这样的一个痕迹,就是说:你这个是怎么推理的?那个是怎么推理的?这几步为什么这么排?他会问这样的问题,然后拿这个结果回去训练自己的模型去。
3. Minimax(约1,300万次交互)

用的最多的是Minimax,1,300万次交互都是它做的。一共1,600万次嘛,其中1,300万次是Mini Max干的。它主要做的:
- Agentic Coding(代理编程):就是做这种代理编程的训练,这个也是Anthropic最强的地方。Anthropic到目前为止还是第一编程模型,它比GPT也好,Gemini也好,Grok也好,编程都比他们强得多。
- 工具使用和编排:我有一个任务下来以后,我到底应该调哪些工具?应该怎么来编排这个任务?这个也是Anthropic最强的地方,Mini Max去学去了。那你说他们只学Anthropic吗?绝对不会。他们也会去学谷歌,也会去学OpenAI的。至于Grok的话,这个学的时候稍微小心一点,有可能学歪了。
Mini Max最气人的在哪?他们会快速追踪Anthropic新模型能力的更新。前两天Anthropic刚刚推出了4.6 Opus,又在春节期间推出了4.6的sonnet。然后这个Anthropic就发现,每一次我出了新模型以后,24小时之内就有大量的问题冲上来,就是Minimax冲上来就问。他要看看这个新的模型跟以前到底有什么区别,然后拿着这些数据回去再训练他们自己的模型去。这个是Mini Max跟的很紧。
三、 应对 Deepseek V4 的“小连招”

那么为什么讲说这一次Anthropic的指责,应该是针对Deepseek V4的三连招之一?Deepseek V4本身并没有发布。在春节之前其实我还专门录了节目去讲,咱们春节的时候有一个新的传统,从Deepseek R1开的传统,就是我一定要在春节期间发新模型。发了千问3.5,发了豆包2,发了Seedance 2.0,发了Minimax 2.5,发了Kimi 2.5,发了GLM 5,这么一大堆模型都是在春节前后这几天发出来的。大家都在等Deepseek V4出来炸场,但是最后Deepseek V4也没出来。但是去年的Deepseek R1给美国这些公司留下来的印象实在太深刻了,所以今年一定要准备好。甭管你有没有,我先得准备着。
- 备忘录施压:2026年2月12日,OpenAI向美国众议院美中战略竞争特别委员会提交了一个备忘录,指责Deepseek蒸馏了他们GPT O1的推理过程。这个其实是去年的事情,只是现在又重新补充了材料,说你看Deepseek R1能够做推理,他们是蒸馏了我GPT O1的整个推理过程,拿着这个蒸馏数据回去重新训练的。重新提交了一个备忘录上去。
- 官方发声指责:2026年2月23日,Anthropic官方发了博客,三个公司:Deepseek、Kimi、Minimax蒸馏我们的大模型,回去去训练他们自己模型去了。
- 芯片禁运指控:同日,美国政府有官员指责Deepseek是用Blackwell芯片进行训练的。大家注意,英伟达的Blackwell芯片是对中国禁运的,在中国境内按道理来说不应该有这种东西。但其实有没有的话,大家自己心里就猜就好了,类似于薛定谔的猫的状态。国内像Deepseek他们也通常会去否认,说没有这事,我们用华为的昇腾芯片去训练。至于到底训练出来、训练没出来,这个就不知道了。用华为昇腾芯片是可以去做推理,训练这件事还要再等结果。
所以虽然Deepseek V4并没有在春节期间发布,但是都准备好了,你不用这不浪费了吗?所以就在春节过完了以后,这些人就赶快稀里哗啦把准备好应对Deepseek V4的这些证据、这些投诉信,挨着个都拎出来给大家展示一下:你看他们没什么了不起的,都是从我们这学的。
四、 蒸馏到底算不算抄袭?

很多人说当然算了,蒸馏怎么能不算抄袭?首先说什么叫蒸馏?
其实我们去上学、去学习的过程就是一种蒸馏的过程。老师学了很多很多年,他通过上课的方式把这个知识聚集在一起,灌输到我们脑子里去,我们去参加考试去。这实际上就是一个蒸馏过程。那你说这个不能这么讲,有没有更形象一点的?有,刷题。我们在考试之前进行刷题训练,这个其实就是标准的蒸馏。我们不再去学习知识了,不再去研究这东西为什么了,你就给我题让我做,做完了以后拿回去评个分,然后我去改改错题,然后我再接着做下一套。这就是标准蒸馏。小镇做题家就是标准蒸馏的一个结果。你说这个不能算蒸馏,你刷题也算是一个正常学习的过程。
那咱们再往前走一步:刷真题。按道理说我们刷仿真题这事没毛病,但是你要知道在中国考托福、考雅思、考SAT、ACT这些玩意,他们是刷真题的。这个真题是有版权的,你是不应该拿回来刷的。即使是中国这些SAT、ACT的代理机构,他们也经常拿出真题来让大家刷。那你刷了真题以后考一个很高的分数,这个就是妥妥的蒸馏了。
但是蒸馏这件事到底是不是违反,它的边界是非常模糊的。刚才我也讲了,你是上学,然后刷题,刷真题,是这样的一个过程下来的。我们现在看一下当前的情况是什么样的。
1. 大模型输出内容没有版权

首先,大模型的输出内容是没有版权的。目前为止全世界主流国家的甭管是立法也好,还是判例也好,都是不会给大模型生成内容确认版权的。因为版权这个东西是必须有人去进行表达,它才有版权。比如说我们去向大模型写提示词了,这个提示词是有版权的,但是大模型输出类的东西是没有版权的。所以我们拿着大模型出来的东西去做训练,这个东西首先不侵权,要跟大家说清楚。
2. 数据已被大模型“污染”

第二个就是现在的数据其实都已经被大模型污染了,很难避开大模型生成的结果找到干净的数据。所以现在你在网上去找各种的开放数据都是大模型生成的,所以这个基本上躲不开。像前面GLM 5发布的时候就出过这种事,有人问他说:“你是谁?”他说:“我是GROK 4.6 OPUS。”很多人说一定是蒸馏出来的。其实不是的,就是他是拿Claude 4.6 OPUS生成的源代码直接训练的。
什么意思?比如说我们现在写的程序,大量的程序,特别是开源程序,都是用Claude code去写的。这个Claude code写程序的时候,里边会有一个叫Claude.MD的文件,它里头就会写出我们用的是什么什么东西,然后写各种的文档、写各种各样的说明文件里头都会告诉他说我是Claude OPUS 4.6,他会写这种东西进去。那我直接从比如GitHub上去拿这些数据去做训练的时候,你没法把这玩意摘掉,这个是很麻烦的。
另外一个翻车的是谁?另外一个翻车是Grok。Grok就是在早期的时候,问他说这样怎么办,Grok的回答是:“因为我是OpenAI,OpenAI限制我回答这样的问题,所以我不能告诉你。”很多人说马斯克你是不是去蒸馏OpenAI去了?其实也不是。就是OpenAI大量生成的内容在各种网站上去贴,Grok抓取了这些内容拿回来训练,又没有清洗干净,就会造成这样的结果。这是一个很难避免的事情。
当然了,还有一些网站会专门的去搜集大模型的优质结果。这个大模型发了一个结果出来,这个不错,我把它存下来,下次我再用。谷歌就干过这种事,它直接用一个叫ShareGPT的网站上搜集的大量的OpenAI生成的结果,去训练他们的当时叫巴德(就是Bard,还不是Gemini,是Gemini前头的一个版本)。所以你问当时的谷歌大模型:“你到底是谁?到底怎么回事?”他也经常说我是OpenAI,也是这么来的。百度的文心一言什么的都出过这种事。
3. 开源协议与用户条款的灰色地带

Llama应该算是蒸馏界里的老祖宗。为什么?因为他是开源的。他自己可以不去蒸馏,但是他开放了结构,鼓励别人用同样的架构去蒸馏数据。所以很多使用LLAMA架构的这模型都是用这个,比如GPT也好,用Anthropic也好,用他们的模型蒸馏的这个结果再去训练的。其实现在就算是Grok、Anthropic他们自己去训练大模型也没有原生数据了,他们的数据也都是用自己的模型再去生成的。他们只是什么?自己先去做一个大模型,去清洗数据以后,然后再蒸馏这些数据,而不是说拿别人的数据回来蒸馏。所以差就差在这了。Anthropic也承认,蒸馏是一种普遍的方法,就他自己肯定也用。
那蒸馏到底违不违法?这个里头是一个比较灰色的地带。首先要确认,大模型生成的内容是没有版权的,所以我们肯定没有侵犯版权。但是我们使用这个大模型生成的结果去训练新模型,它是违反用户使用协议(ToS)的。
我跟你签了个协议,我们双方认可了,但是我违反了这个协议,他是这样的一个问题。这个协议里头,首先禁止中国地区的人使用,但是中国人伪装IP,然后挂着梯子来用,这个本身就属于一个比较灰色的地带了。第二个,这个用户协议里头,明文禁止机械化批量化的蒸馏数据去训练竞争对手的模型。中国这些模型公司花了钱了,使用API了,你甭管是直接在Anthropic使的,还是说我通过API代理去使的,即使是混淆了以后去用这些模型接口的,他也是同意了用户协议的。在这些代理网站,比如说Openrouter,我现在可以使用Anthropic的大模型,他也会在他的用户协议里头写上,你不可以去违反原来Anthropic的用户协议。就是你只要花钱用了,都是属于默认同意了这个用户协议的。你拿这些模型去蒸馏回来训练自己的新模型,你又是Anthropic的竞争对手,那么违反用户协议这件事,他是肯定跑不掉的。
五、 Anthropic 的“论迹推心”与潜在后果

Anthropic其实做的事情叫做“论迹推心”。什么意思?原来咱们有人讲说,你这事是论迹不论心,还是论心不论迹?迹就是我发现的迹象,心就是你一开始起的这个念头。他发现了一些迹象,但是人家到底是不是这么想的,他也不管了,反正我发现迹象,我就认为你是这么干的就完了。中国公司的使用本身是付了钱的,也没有去破解他们的接口,也没有逃票。你规定一个TOKEN多少钱,我就老老实实付了,只是伪装了身份,伪装了行为,进行了请求混淆。如果用同一个账号明目张胆的去进行序列化、机械化的提问回答的话,那很容易被封号。Anthropic觉得我已经发现这些迹象了,我认为你就是故意的。
可能的结果是什么样的?

起诉会很麻烦。因为这些公司都在中国,你一个美国公司在中国又没有任何业务,我跑到中国来起诉你这件事非常非常麻烦,而且周期也会很长。特别是大模型这种东西日新月异,它比互联网那个进化的还快,所以未必会去起诉。现在这个圈子里头谁会起诉?就是传统的出版商会去起诉OpenAI,会去起诉Anthropic。因为他们已经比较习惯了,本来动作就很慢,说我就慢慢起诉呗,拖个两三年,我把官司打完了以后,你该赔钱你还是得赔嘛。但是大模型公司一般不会干这个活。如果真起诉了,也只有违反用户协议是肯定能够成立的,版权这些很难界定。
如果Anthropic起诉了,也胜诉了会怎么样?有没有可能判什么东西?
- 删除账号:这个其实基本上没有什么效果,因为本来就是假账号,你这个给我删了,我再去注册别的呗,最多就是我账号里比如充的值你给我没收了。
- 经济赔偿:其实很难界定金额。你说我做了一个新模型出来,我到底给Anthropic造成了多少损失?他原来应该挣多少钱?现在少挣了多少钱?你很难说明白这件事。最多就是说你挣了多少钱,你挣的这些钱应该是属于Anthropic的,或者说你是用很便宜的价格挣的,把这个价格转换成Anthropic的定价,他应该挣更多的钱,应该挣你这个十倍的钱,你按这个赔。但是这个很难说清楚,因为这些大模型公司也不是只蒸馏Anthropic一家,他是蒸馏一堆的这个大模型出来,然后得到了自己的这个结果。
- 要求删除数据(最可能):就是我们现在确定了这1,600万次是你们从Anthropic这边套的话,你现在要把这些数据都删掉。这个是比较容易去界定和执行的。
- 删除使用这些数据训练的大模型:或者是从大模型中将这些数据清除掉。当然这个后边这句话不太可能,因为大模型只要训练完了以后,它是个黑盒子,你不可能说我把它拆开了以后哪一块给你去掉,这事是不现实的。因为前面很多画家、作家就曾经干过这种事,说我们要求OpenAI使用我们的文章或者图片训练的这个模型把我这一块去了,这事是不行的。因为这个大模型这个东西只要训练完了就是一个整体,不可能去掉其中一部分。但一旦是判了,说要求删除数据,删除使用这些数据训练的大模型的话,对于这些中国大模型公司来说就很麻烦了,等于现在发布的所有产品就没法用了,它会涉及非常多违约的这个诉讼。
- 列入执行黑名单:我现在判了你了,你爱执行不执行了吧。你不执行就禁止合作,所有在美国,比如说被告完了以后没有进行纠正,没有把这个判罚执行完的这些公司,美国公司不允许跟他做生意。这个有可能会成为一个结果。
各大模型的开源协议对比:Deepseek 是个例外

大家会想到一个问题:是不是各家的大模型用户协议或者是开源协议都禁止使用蒸馏数据去训练竞争对手的?这个可以跟大家补充一下。
首先在美国的这些大模型,基本上都是有这样的要求的。即使是Meta,他们做的LLAMA开源的模型,也有类似的这种要求。国内的模型,豆包它是闭源的,那用户协议里头明确禁止用豆包蒸馏训练竞争对手。千问、Minimax、Kimi和GLM智谱虽然都是开源的,但并没有直接使用通用的开源协议,比如MIT、阿帕奇,他没有用这些协议,而是各自去修改了开源协议,都加上了禁止蒸馏训练竞争对手的条款,这都不允许。
刚才讲了半天,是不是发现少了一个?对,有一个例外。Deepseek明确写了:用户对输入输出可用于广泛用途,包括开发衍生产品、训练其他模型,含蒸馏。干去吧没关系。Deepseek R1的仓库里头也明确写了:我就是MIT的开源协议,我没有做任何修改,允许衍生,包括用于训练其他大语言模型的蒸馏都可以。这是唯一的一个不一样。
六、 著名美国公司“蒸馏”事件:Bing vs. Google

甭管是Grok还是谷歌,都因为承认自己是别的模型被怀疑过是蒸馏,但是都没有实锤。真正实锤的美国公司蒸馏别人的故事,要在这补充一个。那是2011年的2月,这么古老吗?那时候还没有大模型。当时是谁在蒸馏?微软的Bing。微软的Bing去蒸馏谷歌的搜索结果的故事。
谷歌怀疑Bing蒸馏了他们的搜索结果。Bing每次接到搜索请求之后,会先调用谷歌搜索,然后跟自己的搜索结果进行比对,发现有差异的部分,再将差异的部分并入到自己的训练库里边去,后续不断的进行改进。最后导致Bing搜索的结果跟谷歌搜索结果越来越像。大家注意,这个搜索结果不是找得着找不着这么简单的事,搜索结果最重要的是排序,谁排前头谁排后头。Bing在这一块蒸馏了谷歌很多的数据,但是你又没有证据,那怎么办?
谷歌做了一个特别有意思的验证实验。他做了一堆乱码的搜索关键词,就是这个词是没有任何意义的,也不会有人去搜索这个词。他设置了可能一组这样的词,然后设置了一堆蜜罐网址(Honeypot)。什么叫蜜罐网址?就是这个网址本身没什么用,只有你去搜索这个完全没有任何意义的乱码搜索词的时候,它才会对应到这个蜜罐网址里去。设置完了以后,过了一段时间发现Bing搜索里面,有一部分乱码搜索词跟他这些蜜罐网址进行了一一对应,直接可以命中了。谷歌以此为论据,说你肯定是抄我东西了。这玩意就像什么?就是到最后一个题说我不会,Bing在最后一个题说我也不会。大概就是干了这么个事情。

当然了,即使是拿到了这样的证据,谷歌也没有去起诉微软,而是进行了一个舆论战,说他们就是抄我的,他们不行,他们技术差很远。做完这个舆论战也就完事了。
七、 总结

中美两国的大模型之战还会继续下去。我们这一次看到的,就是针对Deepseek V4的一个小连招。Anthropic提出的三家蒸馏它模型的这个中国厂商,应该是这个小连招三招中的一招。美国玩的是堆算力,研究最聪明的模型去解现在人类解不开的这个数学问题,以及研究各种场景的应用模式。中国在美国人确定了方向以后,咱们不研究降本增效(注:咱们研究降本增效),我们怎么能够达到Anthropic调用工具实现AI Agent(智能体)这种连续运行的这样的一个逻辑,同时降低成本,实现类似的功能。我们所需要的成本大概是Anthropic的1/10到1%的一个成本,非常非常低。
现在在AI Agent领域,Anthropic绝对是王者。不光是中国模型厂商,全世界都在学它,绝对不止这三家被点名的去蒸馏了Anthropic。包括谷歌,包括OpenAI,还有法国的Mistral,应该都去了。Anthropic自己其实也蒸馏别人,这个谁都跑不掉。
用户条款中的有一些条目本身就很模糊。不允许蒸馏我的数据去训练竞争对手这件事其实非常模糊。你说我这个数据是向你这个大模型花钱提问得到的,还是说我在网上去搜集的?你其实没法界定这个事。你假设说这1,600万次不是这三家模型公司通过账号混淆向Anthropic大模型提的问题,而是直接在网上找到了数据集,或者找到了一些已经用Claude code写好的代码,我拿回来训练这事行不行?其实你是没法去界定的。所以这些条款本身意义不是特别大,你就最后真的拿这个条款去打官司,也很难有什么结果。
以后如果需要使用国内大模型,我准备去试试Minimax,1,300万条,应该就数他们学Anthropic学的最像了吧。最后Deepseek V4还是值得期待一下的,希望还能够给我带来一些惊喜吧。
好,今天这个故事就讲到这里。感谢大家收听,请帮忙点赞、点小铃铛,参加Discord讨论群。也欢迎有兴趣有能力的朋友加入我们的付费频道,再见!
背景图片
Prompt:in the style of Hayao Miyazaki, Studio Ghibli hand-drawn watercolor anime background art, warm-toned poetic techno-nature fusion, a cloud-computing data center carved inside a vast mountain body, endless rows of server racks fading into distance, naturally exposed stone walls and cavern textures, multicolored cables neatly routed and systematically connected between racks, 24mm wide establishing shot, eye-level environmental framing, spacious layered depth with no single hero subject, soft directional warm light with subtle rim light, amber, ochre, warm slate and moss accents, fine ink outlines and painterly textures, –no people, modern office furniture, neon cyberpunk glow, text, watermark, logo –ar 16:9 –stylize 180 –chaos 8 –v 7.0 –p qaczhqj


