<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>宪法AI价值观 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%e5%ae%aa%e6%b3%95ai%e4%bb%b7%e5%80%bc%e8%a7%82/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Wed, 25 Feb 2026 01:34:02 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>宪法AI价值观 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Claude大模型拒造武器，惹怒美战争部</title>
		<link>https://lukefan.com/2026/02/25/anthropic-us-military-ai-ethics-dispute/</link>
		
		<dc:creator><![CDATA[老范 讲故事]]></dc:creator>
		<pubDate>Wed, 25 Feb 2026 00:50:54 +0000</pubDate>
				<category><![CDATA[AIGC]]></category>
		<category><![CDATA[AI杀伤链执行]]></category>
		<category><![CDATA[Anthropic国防部]]></category>
		<category><![CDATA[Claude gov]]></category>
		<category><![CDATA[Claude军事应用]]></category>
		<category><![CDATA[五角大楼AI]]></category>
		<category><![CDATA[大模型武器化]]></category>
		<category><![CDATA[宪法AI价值观]]></category>
		<category><![CDATA[达里奥阿莫迪]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=3565</guid>

					<description><![CDATA[你是否在担忧，未来的战争会彻底被没有人类干预的冷血AI大模型掌控？当美国战争部要求全面解锁AI武器化权限时，最强的国防部AI供应商Anthropic却因拒绝执行“自主杀戮”和大规模国内监控，不仅面临2亿美金订单泡汤，更面临被彻底拉黑的绝境。

本期内容将为你深度揭秘这场震动硅谷与五角大楼的政商博弈。我们将带你拆解Claude大模型坚守的“宪法AI”底层逻辑，探究马斯克旗下Grok大模型如何趁机火速上位接盘。同时，我们也将客观分析，为何这家极度强调“价值观”的科技巨头，会被美国高官痛批为阻碍国家机器运转的“意识形态怪胎”。儒以文乱法，AI时代的科技公司究竟该不该拥有凌驾于法律之上的道德霸权？

立即点击播放，看清AI巨头与国家机器的硬核碰撞！如果你也对AI合规、无人战争装备与未来科技走向感兴趣，请务必订阅老范讲故事频道、点赞并开启小铃铛，欢迎加入我们的Discord社群，一起探讨“AI到底需不需要道德边界”！

#Anthropic #Claude大模型 #AI武器化 #美国战争部 #马斯克Grok]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="美国战争部怒批Anthropic！Claude大模型被弃用的真正原因竟是…" width="900" height="506" src="https://www.youtube.com/embed/B-1rUegtgag?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_1.jpeg" alt="一个巨大的木制回旋镖飞向一个站在高台上戴着眼镜的科技学者，高台下是五角大楼形状的建筑，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p><strong>回旋镖来了。美国战争部长怒批Anthropic CEO：意识形态主义，不民主！这到底是个什么故事？</strong></p>



<p>在当前的全球科技竞争中，AI技术的发展已经成为各国角逐的重要领域。尤其是在军事应用方面，各国都在积极探索如何利用AI提升其军事实力。Anthropic作为大模型领域的佼佼者，其拒绝参与武器制造的立场引起了广泛关注。</p>



<p>在此背景下，Anthropic的CEO达里奥·阿莫迪的发言引发了巨大争议。他的观点不仅仅是对技术应用的价值观表达，更是对整个行业道德底线的捍卫。这种思想在当今社会中尤为重要，尤其是在技术发展迅速的情况下，如何平衡伦理与科技应用成了一个迫切需要解决的问题。</p>



<p>我们可以看到，AI技术的应用范围不仅限于商业和民生，甚至已经渗透到国家安全的各个方面。从无人机到智能监控，AI的军事应用正在以迅猛的速度发展。这种发展虽然为国家安全提供了保障，但同时也引发了对技术滥用的担忧。</p>



<p>在这样的情况下，Anthropic的立场显得尤为鲜明。公司对于不参与自主武器的开发不仅仅是商业决策，更是道德责任的体现。企业在追求利润的同时，更应该关注其技术的社会影响，确保不对人类带来潜在威胁。</p>



<p>大家好，欢迎收听<a href="https://youtube.com/@StoryTellerFan" target="_blank" rel="noopener">老范讲故事的Youtube频道</a>。在达沃斯论坛上，Anthropic CEO<strong>达里奥·阿莫迪</strong>曾经说过，给中国供应H200，就相当于是向朝鲜销售核武器。这样的一个站在道德制高点上的人，现在被骂了，轮到他自己了。<strong>美国战争部长赫格塞斯</strong>召见了Anthropic CEO达里奥·阿莫迪，进行了一次不愉快的会面。所谓的不愉快会面，并没有出现在官方报道里边，但是据一些媒体从周边的人身上挖出来的，赫格塞斯确实是说了，这次会谈很不愉快。</p>



<p>此外，战争部与Anthropic之间的分歧还反映了科技与政策之间的矛盾。科技的发展往往超越了政策的适应能力，造成了二者之间的脱节。在这种情况下，如何建立有效的沟通机制，让政策及时跟上科技进步的步伐，是当前亟待解决的问题。</p>



<p>那么会谈的目的是什么？必须<strong>彻底废除所有的使用策略限制</strong>。我买你东西，你让我用就完了，我愿意怎么用怎么用，你别管我。他批判说达里奥·阿莫迪是阻碍战争的绊脚石、无可救药的意识形态分子、觉醒文化的怪胎，怒批达里奥·阿莫迪是<strong>不民主的</strong>。这个就是故事的开始。</p>



<p>这个故事咱们分四段来讲。第一段，战争部跟Anthropic之间分歧到底是什么？第二个，网上放大和过度解读的一些东西，咱们也要拿出来稍微掰扯一下。第三段，Anthropic这个曾经的唯一一家国防部授权大模型供应商，到底在坚持什么？最后，战争部为什么对于向Anthropic申请许可那么耿耿于怀？</p>



<span id="more-3565"></span>



<h2 class="wp-block-heading">首先咱们讲战争部和Anthropic之间的分歧到底是什么。</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_2.jpeg" alt="一个穿着军装的指挥官正在向一个发光的机器人下达命令，但机器人举起双手表示拒绝，旁边有六层台阶的密码门，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p>Anthropic原来是唯一的可以达到<strong>美国战争部6级安全网络</strong>的这种大模型。美国战争部原来叫国防部，后来川普给改成叫战争部了。他们下面的网络是分六级：</p>



<ul class="wp-block-list">
<li>第一级是可以公开的，就是不会给国家、不会给任何人造成损失的，这个一般就不管了；</li>



<li>二级比如内部的一些后勤数据，这些数据也在通过一定的形式公开，泄露了也不会出什么问题；</li>



<li>后边反正一级一级往后走，最高一级就是6级。很多跟具体的任务、跟具体的人员相关的这些东西是六级。</li>
</ul>



<p>唯一达到六级的就是Anthropic的<strong>Claude</strong>，其他都没达到。战争部的要求是，在合法的范围内，我要<strong>完全可用</strong>。你说这个东西不让我用了，但是法律又没有禁止，就是你公司禁止我，这事是不行的。说不要设置任何的公司层面的限制，<strong>立法是国会、政府和总统的事情，不能让一个公司的规定凌驾于法律之上</strong>，这是不民主的。希望Anthropic可以协助更多的直接战争任务。</p>



<p>这个什么意思？Anthropic原来在战争部的这个系统里边，更多的是在进行策划、信息搜集，在干这个事。但是直接出去做这种执行的事情，Anthropic这个Claude经常是不执行的。而且战争部不希望每次使用Anthropic的Claude的时候，都还需要向Anthropic去申请许可。而Anthropic的坚持是什么？他说：</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>“我们可以放大绝大部分的权限，这个没毛病，但是有两个条件是不可放松的。是不是合法我不管，反正这俩条件我们坚持。</p>



<ul class="wp-block-list">
<li>第一个，<strong>对美国人的大规模国内监控</strong>这件事，我们是绝对不给你干的。</li>



<li>第二个，<strong>没有人类介入的完全自主武器</strong>。无人机、机械狗，这个东西你遥控的没毛病，但是如果说这个机器出去了以后，自己判断到底是杀还是不杀，这个Claude坚决不干。”</li>
</ul>
</blockquote>



<p>这就是他们真正去坚持的两个点。</p>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_3.jpeg" alt="一只机械狗和一架无人机停在地上，旁边是一个被巨大挂锁锁住的监控屏幕，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p>那可能的影响是什么？</p>



<ul class="wp-block-list">
<li>第一个是<strong>2亿美金的订单</strong>就没了。Anthropic向国防部提供服务，这个单子是值2亿美金，这个就泡汤了。</li>



<li>第二个，有可能把Anthropic认定为<strong>供应链风险（supply chain risk）</strong>。一旦被划到这个圈子里头去，那就很麻烦了。不但不能跟战争部做生意，而且战争部以后不采购你东西了，做各种招投标你也没有申请的资格了。而且任何和战争部做生意的供应商都需要证明自己没有用过Anthropic的产品。</li>
</ul>



<p>这个对于一个完全ToB的大模型公司来说，肯定也是非常非常麻烦的。这就是他们两个最主要的争执。</p>



<h2 class="wp-block-heading">网上放大和过度解读的一些东西，咱们也可以出来说一说。</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_4.jpeg" alt="天空中飞舞着各种小型机械无人机，下方是一群人拿着巨大的放大镜在仔细观察，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<ul class="wp-block-list">
<li>第一个，有人说了，Anthropic有可能成为<strong>继华为之后另一家被制裁的企业</strong>。这件事要跟大家澄清一下。华为的制裁是美国商务部给的，是<strong>出口禁令</strong>。任何美国公司不可以把技术出口给他，任何使用美国技术的公司不可以跟他去做生意，是这样的一个禁令。就这种禁令是没有办法运用在美国公司身上的。它就是个美国公司，你咋禁它？这事不行的。所以战争部只能管自己的事，就是我不跟你做生意，谁想跟我做生意不许跟你做生意。这个事他是可以搞定的，绝对不会像华为那种禁令一样的。</li>



<li>第二个，有人在X上去说，Anthropic是不是<strong>拒绝监控社交媒体、拒绝监控非法持枪、拒绝监控非公民的投票</strong>，是不是有这样的情况？这个出处是Anthropic拒绝对美国人的大规模国内监控。但其实要注意什么？甭管是监控社交媒体、监控非法持枪，还是监控非公民投票这些事情，它都不是国防部的事，他们各自有各自的主管部门。赫格塞斯不会为了这些事去找达里奥·阿莫迪的麻烦，所以这个也是不成立的。虽然Anthropic坚持的是不能对美国人进行大规模的国内监控，但是具体的事案例，在这里头都是没有办法去坐实的。</li>



<li>还有一个网上传播的点特别有意思，说赫格塞斯去找Anthropic的达里奥·阿莫迪，原因是什么？被<strong>中国的春晚刺激了</strong>。这跟中国有什么关系？为什么被中国刺激了，就要把Anthropic拎出来敲打一下？这个出处是Anthropic拒绝没有人类介入的完全自主武器。美国战争部确实有文件，在里边写了说中国的各种无人化作战装备的演示，让他们感到了有压力、有危机了。因为中国确实是拍了很多视频，说我们有无人狗、无人的坦克、无人的战车，甚至还有那种九天无人机。飞上去以后，大无人机还可以撒小无人机，就这些东西满天飞了。而且在俄乌战场上，无人机的效果还非常非常好。既然Anthropic拒绝在没有人类介入的完全自主武器上提供帮助，那是不是美国国防部想干这个活，Anthropic不干，就把它拎回来好好敲打一下？目前为止都是间接证据。国防部确实是出过文件，也有媒体报道过，在美国也有议员提出过这样的问题，说中国在这块是不是跑太快了，我们是不是有压力了。但是这一次的话并没有直接证据，是因为中国的无人装备震惊了老美这件事情也没有。</li>
</ul>



<h2 class="wp-block-heading">那么Anthropic这个曾经的唯一一家国防部授权大模型供应商，到底在坚持什么？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_5.jpeg" alt="一台被厚重砖墙隔离的巨型服务器，上面放着一本写着“宪法”的厚重书籍，几条粗大的电缆连接着外部的锁箱，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p>不就这两条吗，刚才我们讲了。国防部的安全网络是分六层的，Anthropic是可以访问第六层，或者说大家可以在第六层的网络里去使用它。这个说话我觉得应该算更合理一些。他这个怎么过去的？你肯定也要申请，说我这个做的很安全，我要申请你去审核一下，审核通过了以后，才可以在第六层的网络里边去访问Anthropic的大模型。这个申请谁给他做的？或者合规的这套流程谁给他做的？这个公司叫<strong>Palantir</strong>，他们给做的。那怎么去使用？<strong>亚马逊云</strong>提供了基础设施，因为亚马逊是Anthropic的股东嘛，是他的投资人。我们在亚马逊云上专门辟出一块来，这一块就是给国防部用的，跟外边都是物理隔离的，绝对访问不到。我们现在想去访问国防部用的那个大模型，我们是用不了的。完全物理隔离的一个云服务器上，部署了Anthropic的软件，部署了他们家的大模型，然后由Palantir去填表格、做各种测试，让他通过的。原来谷歌、xAI和OpenAI一直都在第二层在那打转，一些后勤数据或者一些装备数据、可以公开的数据，他们是在这层里是可以用的，在更高的层都使不了。</p>



<p>现在的话Anthropic拒绝服从嘛，那么<strong>xAI</strong>就赶快紧急救场。马斯克火速签单，<strong>Grok</strong>提权可以进入更高级的安全网络了。现在协议签了，他到底能不能达到第六层这个事，现在还不太确定。因为真正能去给他做这个事的人，绝对不是马斯克自己，也不是说马斯克到白宫吃饭，他就可以把这事搞定，没有那么容易。可能还是要Palantir去给他做全套的流程、做测试，测试完了以后，才可以在更高层级的网络上去使用Grok。但是也要注意，如果国防部能够使用的这个Grok，跟我们平时大家上X上面给你画黄图、讲黄笑话那个东西，也不是同一个东西。谷歌现在也在申请、在做合规审查，OpenAI还在努力，它差的比较远。</p>



<p><strong>那么Anthropic到底在坚持什么？</strong>首先明确，战争部使用的Claude，它这个名字叫<strong>Claude gov</strong>，是Claude的政府专供版，和普通人用的是两个东西，并不完全一样。普通人去使用Claude大模型，甭管你是通过Claude的APP、网站还是调API，我们使用的是有一套规则限制的。到国防部里头，其实大量的这些规则已经都取消掉了。这个系统部署在经过Palantir协议申请认证过的亚马逊的安全机房里头，Anthropic没有权利去影响这个服务器上的大模型具体如何运行。一旦部署上去以后，你说我再改点什么东西，这事肯定没戏。Anthropic也没有权利去看这台服务器上的输入输出日志。这边国防部要求制定一个什么计划，或者做了哪些输出，Anthropic上去查一查？他也没这个能力。</p>



<p>美国国防部以过往的行动，其实也没有向Anthropic发起过任何的许可申请，都是先斩后奏，我就直接把它用了。<strong>马杜罗的事件</strong>，委内瑞拉总统马杜罗被抓的事件，应该是这一次会面的一个导火索。有媒体报道了，抓捕委内瑞拉总统马杜罗的行动中，Palantir是使用了Claude大模型进行的策划。一位Anthropic高管联系了Palantir的高管，询问Claude是否用于了1月份马杜罗抓捕。五角大楼官员解读为，似乎可能他们不认可这件事情。但是Anthropic随后否认曾就具体行动与战争部或者是任何的合作方进行过讨论，说这事我没干过。但是有媒体报道过这个事情。</p>



<p>Anthropic搞的这东西叫<strong>宪法AI</strong>。这个东西即使给政府开了权限，依然会拒绝一些指令。OpenAI、xAI、谷歌，他们去向战争部提供服务的时候，他们也会改这些系统，但是他们的模型本身是一个百无禁忌的模型。我们去使用的时候，是在外部进行限制的，我们输入的提示词有没有不合规的地方，它输出给我们的结果有什么不合规的地方，它是在这个地方进行过滤的。而Anthropic这个东西，它里头有一套宪法管理系统。他在训练的时候就把大量这种数据训练进去了。所以不是说我随便给你开个许可你就可以用，虽然他那个已经是要比国外、要比外边人用的那个限制要宽了，但是依然会有很多的命令会拒绝。</p>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_6.jpeg" alt="一个发光的机器人在一张军事沙盘地图上摆放旗帜，但它背过身拒绝触碰桌边的一把机械武器，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p>战争部也希望让AI从<strong>战役规划</strong>直接下沉到<strong>杀伤链执行</strong>。什么叫战役规划？我们规划一下，应该上去多少个人，对面是怎么样，各种的信息搜集，应该怎么去做一个行动计划，谁先去谁后去，在哪个地方投放什么东西，这个东西叫战役规划。而杀伤链执行的话，就是人已经到前线了，我们看到这东西了，打不打？这个事情战争部是希望由Claude去搞定的，但是Claude肯定是拒绝执行了这种任务。Palantir做了一些规避性质的提示词工程，他们改写了一些提示词，想办法让Claude进去参与一部分任务，但是不能保证每次都有效，所以它的效果是打折扣的。</p>



<p>如果Anthropic说行没问题，我给你开了。一方面它需要承担<strong>巨大的社会舆论压力</strong>，因为他这东西确实好使。因为战争部原来只用他一个，不用任何其他人的，所以以后战争部到哪去杀人了，或者出了件什么事了，他都要背这个锅，这是一方面。另外一方面，他这套模型没有办法彻底打开，这里头从小训练教育上来就这样，训练的时候就有大量的宪法模型的数据在里头，所以他也没有办法说完全不限制了，他就可以上去大杀四方。这事没办，没搞不定。他只要坚持这两件事以后，即使是他在执行任务的时候拒绝回答了，他也不需要承担别的法律责任，哪怕杀错了人，他也不需要去承担舆论责任。而这就是Anthropic之所以坚持这两条的一个核心原因。</p>



<h2 class="wp-block-heading">战争部为什么对于向Anthropic申请许可那么耿耿于怀？</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_7.jpeg" alt="一个士兵正在前线举着对讲机焦急呼叫，但对讲机里弹出一个举着停止手势的友好机器人图标，背景是硝烟弥漫的战场，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p>肯定这帮人没有那么好打交道。那是不是战争部曾经向Anthropic申请许可被拒绝了？门难进，事难办，脸难看，是不是干着这种事？肯定没有。<strong>美国战争部从来没有向Anthropic申请过任何许可</strong>，这个要跟大家讲清楚。因为每一次都是由Palantir把这个事情搞定，就是去执行任务，先去模拟一下。在这个过程中，哪一部分它能干，哪一部分它不能干，哪一部分它有可能出错。他可能出错或者可能不干活的地方，我有没有可能通过这种提示词工程把他绕过去，能不能越狱他？如果都不行，那我们再看看下边执行该怎么去做这个事情。这是Palantir的活，这个跟战争部没关系。</p>



<p>但是战争部认为什么？对于哪些算是大规模监控，哪些算是自主武器这件事，是存在<strong>大量的灰色区域的</strong>。因此逐个用例跟Anthropic谈判是不可行的。它不是有两个条件吗？到底什么样的算自主决定？你说我看见人了，做自主瞄准，还是做哪些判断，这事算不算？还是说我这头有遥控器，只是做个辅助，算不算？它这个范围很大。包括这种大规模监控，多大规模叫大规模监控，这个事也不是你一个公司能决定的。所以这个事我不愿意跟你谈，这就是国防部的基本的原则。他们担心<strong>模型会意外阻断某些应用</strong>。我干着干着，突然你不干活了，而且是不可预期的，这个对于打仗来说是非常危险的。你战士都上去了，举着枪说打不打，然后对边说你不可以打，因为我是个善良的人。这玩意你咋弄？</p>



<p>那你说Anthropic拒绝过政府要求吗？还真干过。2025年9月份，与联邦执法机构合作的政府承包商正式向Anthropic提出了政策豁免和破例申请。他们希望Anthropic能够高抬贵手，允许政府部门在特定任务中使用Claude进行数据监督，比如说看一下社交媒体账号。Anthropic极其强硬的拒绝了这项申请，死守其可接受使用条款中禁止用于监控的红线。早在2025年9月份，Anthropic就已经上了白宫和部分政府鹰派的黑名单了。所以他确实干过。</p>



<h2 class="wp-block-heading">总结一下吧。</h2>



<figure class="wp-block-image size-large"><img decoding="async" src="https://pictures.lukefan.com/anthropic-us-military-ai-ethics-dispute/blog_8.jpeg" alt="一个戴着眼镜的严厉老师拿着一卷书简，正在对一个全副武装的士兵进行说教，背景是象征规则的法庭石柱，羊皮纸，钢笔彩色手绘的统一风格。"/></figure>



<p>我今天在X上看到隐枫视野发起了一个投票，问大家说喜不喜欢Anthropic的价值观。我去投票了不喜欢，并且做了评论和转发。我写的是：</p>



<p>总的来说，Anthropic在坚持道德底线的同时，也在推动行业的正向发展。作为大模型的领军企业，Anthropic的态度无疑为其他科技公司树立了榜样，促使其在技术革新与社会责任之间找到更好的平衡。</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>如果一个朋友三观很正，这个是一个很好的事情；但如果是父母或者老师三观很正，要求严格，而且没有什么边界感，那么对于被管理者来说，就未必是好事情了。</p>
</blockquote>



<p>Anthropic的价值观并不会像朋友那样有距离和分寸，他们对于用户来说更像是父母和严厉的师长。而且他们还会站在道德的制高点上去指责别人，比如超级碗上阴阳OpenAI做广告这件事情。所以这些人绝对是<strong>觉醒主义者，是意识形态主义分子</strong>。</p>



<p>美国有美国的规矩。参众两院负责立法，法院负责执法，政府负责行政，它是分开的。这里头是没有Anthropic的什么位置的。他们管的实在太宽了。如果产品做的烂没人用也无所谓了，偏偏他们还做的挺好的，让别人离不开了。战争部要求的也不是无限的授权，而是在<strong>法律范围内合法使用</strong>。就是法律规定我可以干这些事，你就让我干。你不能说法律都允许了，你不让我干。这事你凭什么？你是老几？</p>



<p>中国古代说这件事情有两句话，叫做“<strong>儒以文乱法，侠以武犯禁</strong>”。这个就是美国当前的写照。Anthropic自己定了个规矩，然后还对政府进行道德绑架，说这个怎么怎么不好了，这是我的道德标准。通过这样的方式去管理战争部，这绝对是“儒以文乱法”的一个典型。至于“侠以武犯禁”的话，满大街都是biu biu，这事也没跑了。</p>



<p>好，这就是咱们今天的故事。感谢大家收听，请帮忙点赞，点小铃铛，参加<a href="https://discord.gg/ppKsNkttTv" target="_blank" rel="noopener">DISCORD讨论群</a>。也欢迎有兴趣有能力的朋友加入我们的<a href="https://www.youtube.com/channel/UCUGLhcs3-3y_yhZZsgRzrzw/join" target="_blank" rel="noopener">付费频道</a>。再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
