<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>斯坦福机器人 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<atom:link href="https://lukefan.com/tag/%E6%96%AF%E5%9D%A6%E7%A6%8F%E6%9C%BA%E5%99%A8%E4%BA%BA/feed/" rel="self" type="application/rss+xml" />
	<link>https://lukefan.com</link>
	<description>这里是老范讲故事的主站，持续更新 AIGC、大模型、互联网平台、商业冲突与资本市场观察，帮你看清热点背后的底层逻辑。</description>
	<lastBuildDate>Sun, 23 Feb 2025 00:40:23 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lukefan.com/wp-content/uploads/2026/03/cropped-jimeng-2026-02-28-5245-用图一的人物形象，替换图二中的人物，使用图二的风格。文字替换：老范讲故事，Yo-32x32.jpeg</url>
	<title>斯坦福机器人 &#8211; 老范讲故事｜AI、大模型与商业世界的故事</title>
	<link>https://lukefan.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Figure 02的震撼展示：机器人推理、协作与Helix大模型如何颠覆家庭环境AI。国内能够转手帕，跳舞的机器人，到底还差多远？</title>
		<link>https://lukefan.com/2025/02/23/figure-02%e7%9a%84%e9%9c%87%e6%92%bc%e5%b1%95%e7%a4%ba%ef%bc%9a%e6%9c%ba%e5%99%a8%e4%ba%ba%e6%8e%a8%e7%90%86%e3%80%81%e5%8d%8f%e4%bd%9c%e4%b8%8ehelix%e5%a4%a7%e6%a8%a1%e5%9e%8b%e5%a6%82%e4%bd%95/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Sun, 23 Feb 2025 00:40:21 +0000</pubDate>
				<category><![CDATA[机器人与具身智能]]></category>
		<category><![CDATA[7B模型]]></category>
		<category><![CDATA[AI机器人未来]]></category>
		<category><![CDATA[AI机器人演示]]></category>
		<category><![CDATA[AI模型协同]]></category>
		<category><![CDATA[DeepMind机器人]]></category>
		<category><![CDATA[Figure 02]]></category>
		<category><![CDATA[Figure 02操作分析]]></category>
		<category><![CDATA[Figure AI]]></category>
		<category><![CDATA[Figure AI VS OpenAI]]></category>
		<category><![CDATA[Figure AI产品化]]></category>
		<category><![CDATA[Figure AI家庭实验]]></category>
		<category><![CDATA[Figure AI家庭环境]]></category>
		<category><![CDATA[Figure AI技术分析]]></category>
		<category><![CDATA[Figure AI技术突破]]></category>
		<category><![CDATA[Figure AI推理演示]]></category>
		<category><![CDATA[Figure AI离开OpenAI]]></category>
		<category><![CDATA[Figure Helix升级]]></category>
		<category><![CDATA[Figure双机器人协作]]></category>
		<category><![CDATA[Figure机器人系统]]></category>
		<category><![CDATA[Figure离开OpenAI]]></category>
		<category><![CDATA[Helix模型]]></category>
		<category><![CDATA[Nvidia Jetson AGX Orin]]></category>
		<category><![CDATA[OpenAI伙伴关系]]></category>
		<category><![CDATA[VLA模型]]></category>
		<category><![CDATA[丰田研究院AI]]></category>
		<category><![CDATA[人工智能应用]]></category>
		<category><![CDATA[人机协作]]></category>
		<category><![CDATA[低功耗芯片]]></category>
		<category><![CDATA[动作控制模型]]></category>
		<category><![CDATA[动作数据训练]]></category>
		<category><![CDATA[双人成行]]></category>
		<category><![CDATA[家庭环境机器人]]></category>
		<category><![CDATA[家用机器人]]></category>
		<category><![CDATA[开源机器人模型]]></category>
		<category><![CDATA[开源模型]]></category>
		<category><![CDATA[斯坦福机器人]]></category>
		<category><![CDATA[机器人分类操作]]></category>
		<category><![CDATA[机器人多模型协同]]></category>
		<category><![CDATA[机器人实时调整]]></category>
		<category><![CDATA[机器人工业设计]]></category>
		<category><![CDATA[机器人自主推理]]></category>
		<category><![CDATA[机器人视觉推理]]></category>
		<category><![CDATA[机器人语音模块]]></category>
		<category><![CDATA[机器人语音识别]]></category>
		<category><![CDATA[机器视觉]]></category>
		<category><![CDATA[自主判断机器人]]></category>
		<category><![CDATA[英伟达开发套件]]></category>
		<category><![CDATA[视觉语言模型]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1929</guid>

					<description><![CDATA[**啊啊啊啊啊！Figure 02双人成行，机器人协作简直逆天！🤖🔥**

家人们！今天一定要给你们安利一波Figure 02的协作视频！看完我真的被震撼到了！🤯 这个视频里，两个机器人居然能像人类一样协作完成任务，简直是打开了新世界的大门！💥

**视频亮点速看👇**

1️⃣ **双人协作**：两个机器人一起工作，默契度爆表！一个开冰箱，一个开橱柜，全程无失误，简直是教科书般的操作！📚

2️⃣ **自主推理**：Helix模型让机器人能自主判断，把食物分门别类放好，完全不需要人类干预！这种自主能力真的太强了！💡

3️⃣ **动作精细**：抓取鸡蛋、传递食物，动作流畅且精准，完全没有失误！真的是细节控的福音！🥚

4️⃣ **家庭环境**：在完全不可预期的家庭环境中，机器人依然能完美完成任务，这种适应能力太绝了！🏠

**为什么这么牛？**

这次Figure 02的协作之所以这么惊艳，全靠他们的**Helix模型**！这个模型结合了两个低功耗GPU芯片，一个负责推理，一个负责动作，配合得天衣无缝！而且，整个操作过程没有加速，也没有遥控，完全是机器人自主完成的！💪

**总结：**

Figure 02的这次演示，绝对是机器人协作的一大突破！家人们，真的不允许你们没看过这个视频！🚀 看完之后我只想说：未来的机器人协作，真的要起飞了！🔥

赶紧去围观，绝对不亏！👇

#Figure02 #机器人协作 #Helix模型 #黑科技 #科技前沿 #震撼视频

Figure 02的震撼展示：机器人推理、协作与Helix大模型如何颠覆家庭环境AI。国内能够转手帕，跳舞的机器人，到底还差多远？

Figure AI离开OpenAI后首度展示Figure 02机器人及其Helix大模型，在家庭环境中完成了令人惊叹的操作演示。这次展示中，Figure 02通过视觉语言动作模型(VLA)以及自主研发的8,000万参数小模型，与7B大模型协同配合，展现出了非凡的推理能力与精准操作。在没有语言输出模块的情况下，两个机器人实现了分工协作，完成了对未知食物的分类和摆放任务。这标志着机器人技术进入一个自主判断与适应的新时代。低功耗芯片、开源视觉推理模型和创新的设计使Figure 02成为当前行业内的焦点。这场表演不仅展现了新一代机器人强大的认知与执行能力，更在家庭环境这一不可控情境中开辟了全新方向。未来机器人会如何发展？从Figure 02的演绎中，我们看到了希望。]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Figure 02的震撼展示：机器人推理、协作与Helix大模型如何颠覆家庭环境AI。国内能够转手帕，跳舞的机器人，到底还差多远？" width="900" height="506" src="https://www.youtube.com/embed/UDlKHRej20Q?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>Figure 02双人成行的视频又一次震惊了业界。大家好，欢迎收听老范讲故事的YouTube频道。今天咱们来讲一讲2月21日凌晨，Figure AI放出来的Figure 02以及他们的Helix大模型的视频。在做视频这件事情上，Figure AI从来没有让人失望过。我还记得上一次让大家感到异常震惊的视频，是Figure 01和OpenAI结合在一起的视频。一个Figure 01的机器人站在台子后面，有一个帅哥跟他说：“唉，你去给我把吃的东西找出来。”桌面上一大堆的各种物品，他在里边找吃的东西是一个苹果，找到了给他，然后把这个垃圾倒在桌上，说：“把他们都收起来。”一边把这个各种的任务完成，还一边非常风趣幽默，或者说带有很有人情味的语气语调，跟这个小哥对答如流。当时让大家觉得，原来机器人已经发展到这样的一个程度了。</p>



<p>在上个月，Figure AI突然宣布离开OpenAI，自己单飞。当时他们的CEO就讲了，说：“我们会在30天后，给大家看一些新的东西。”那么今天这个新东西就来了，确实让人很振奋。里面一个帅哥，这个帅哥到底是不是上次Figure 01里头那个呢？我不确定，反正我对于欧美人稍微有点脸盲，没有认出来。他呢，在这一次进行了全新的展示。首先呢，他向两个机器人下指令。大家注意，这一次跟上一次最大区别就是，上一次是一个机器人，这一次是两个机器人。在一个家庭的环境里头，两台Figure 02站在一个应该是厨台后面吧，这边是个冰箱，冰箱前面还有一些烤面包机，什么这样的设备在这儿。然后呢，是一个食物加工和摆放的一个台面，旁边是一个橱柜，大概是这样的一个环境。这位帅哥呢，拿了一袋子食品，这个袋子呢应该是Wholefood的袋子，硅谷的人喜欢吃的，一个比较贵的食品超市的品牌。这个超市后边的老板是亚马逊的贝索斯。我印象里，Figure AI后面的一大股东就是亚马逊，所以肥水不流外人田，还是要用自己家的购物袋。</p>



<p>然后呢，把一堆的食物放在这个餐台上面去，然后下达语音指令说：“我们做一些新的尝试。这是你们第一次见到这些东西，请通过这个Helix模型进行推理，然后通过你们自己认知的分类，齐心协力将这些东西放好。”</p>



<span id="more-1929"></span>



<p>大家注意，这个指令里头呢，有一些其实是跟动作没关系的。比如说一些新的尝试，你们是不是第一次见到这些东西，这个其实跟后边具体干的活没关系。为什么要加这种东西进去呢？因为前面苹果说我们认证了，这个大模型是没有推理能力的。因为我们在题目里头加了一些与题目无关的死句，以后它的判定成功率就会下降，所以一定要有这样的语句在里头。</p>



<p>然后呢，要点出说你要使用Helix模型，要进行推理。其实呢，到这里跟这个指令本身都没有关系。真正跟指令有关的是什么？就是你要分类，这些东西要放到不同的地方去，然后呢，要协作。这个是他们真正的指令，最终说是要把东西放好。</p>



<p>那都有些什么样的东西呢？第一个是有盒生鸡蛋，有一袋面条，应该是意大利面之类的东西，但是我具体没有特别看清楚这一袋是什么。还有一袋是需要冷藏的食品吧，透明的袋子，但是实在不太容易看清这个袋子里装的是什么，看着好像是擦丝奶酪，具体的没有办法去分辨了。还有一个新鲜的苹果，一袋饼干，应该是姜饼人饼干，有一袋咖啡，反而方方正正的一个袋子，很深色的包装，猜测里面应该是咖啡，不需要冷藏。然后还有一瓶榛子酱，或者是巧克力酱之类的东西，本来我以为是番茄酱，因为颜色很像，但是这个经过我太太鉴定，说番茄酱一般是挤出来的，他有这么宽的一个瓶口，应该不是番茄酱，所以呢，猜测是榛子酱。</p>



<p>那么几个目的地，第一个是冰箱，第二个呢是橱柜，橱柜上面有一个方形的置物篮，还有一个呢是这个餐台上，有一个装水果的一个大碗，大概是这样四个目的地。等于是要把刚才我们讲的这些东西，分门别类的放到这四个目的地里头去。摆放的位置呢，肯定也是故意设计的嘛，就是一些应该放在冰箱里的东西呢。</p>



<p>是靠在这个餐台里边放的，应该放在橱柜里的东西呢，是靠在冰箱这头放的。因为两个机器人并排站在这个冰箱跟橱柜之间嘛，所以他们必须要协作。那么操作的过程是什么呢？帅哥把东西放好了以后，说：“你们开干吧。”他就走了。后边就是俩机器人在这噼里啪啦在这摆了。两个机器人先往前走了一点点，机器人是可以动的。走了一点点以后呢，就没有再挪动脚步。整个摆放所有东西的这个过程，他们脚下是没动的。首先是打开冰箱门，这个是LG的对开门冰箱，但是应该打开的是冷藏这一侧吧。另外一个机器人呢，是打开了橱柜的门。等于他们两个同时先做了第一步，然后开始将不同的东西放入到不同的目标的存储设置里头去。抓取的时候呢，还是比较注意的，没有把鸡蛋捏碎。有一小盒鸡蛋，据说美国现在鸡蛋很贵，Whole Foods的鸡蛋肯定是更贵的。也没有捏碎饼干。然后在中间呢进行了两次传递。第一次呢，有一袋需要冷藏的食物，由这个靠近橱柜的机器人拿起来，递给另外那个靠近冰箱的机器人了。另外一次呢特别有意思，他是要拿苹果。这个苹果呢被放在冰箱附近。这一次呢并不是说靠近橱柜的机器人伸手过去把这个苹果接过来，而是什么呢？他把这个放苹果的碗推过去，另外一个靠近冰箱的机器人把这个苹果拿起来，放到这个碗里边去。靠近橱柜的机器人再把这个碗拖回到橱柜附近去。这是一个比较有趣的配合。他会知道说你要给我的是苹果，应该把苹果放到碗里去。每一次配合呢，都是一个机器人先开始动作，比如说我现在伸出手来要需要冷藏的那一袋食物，或者是我现在把这个碗递过去，等待另外一个机器人去拿取相应的食物，或者是把这个苹果放进去。整个的配合完成之后，最终呢是把这个冰箱门关掉，把这个橱柜门关掉，算是完成全套动作。中间呢有一些相互对视的这个动作，因为Figure02的机器人头顶上只有一个摄像头，他需要靠扭头来去看一下另外一个机器人在干什么。始终没有说话。</p>



<p>在Figure 01演示的时候，他是不停地在这说话，而且说的还挺有人情味的。在Figure 02这一次演示里头，就没有说话。应该是现在Figure 02的这个机器人里头，是没有语音模型的。它呢可以进行语音识别，但是呢没有语音输出模块。上一次Figure 01演示里头，应该使用的是GPT4O的高级语音功能，因为当时这个机器人的脸部其实是一个屏幕，上来先写的是OpenAI，再是Figure的这个LOGO，然后再去完成所有的演示。</p>



<p>那么这一次的话，整个是不说话的。动作呢并不是很快，而且呢每一个动作之间是有明显的停顿的。那你说这一次整个的演示是不是真的？所有人看到这种机器人演示，第一个问题就是这个是摆拍吗？是真的吗？后边有没有人遥控？首先呢我们要看到，这个视频是通过多镜头、多角度进行拍摄的，并不是只有一个角度进行拍摄。整个的灯光做的都非常非常棒，整个的镜头语言运用的也很好。所以呢他是有很重的这种剪辑痕迹在里边了。但是一些基础应该是不会造假的，因为他要向人展示的就是这些基础东西。如果在这个上面去造假的话，那么这个展示的意义就没有了。</p>



<p>这应该是离开OpenAI之后的第一次展示。在这个里边的话，应该是不会去做加速的，因为很多机器人演示里边会做加速，就是比如说用两倍速或者6倍速给你去播放，你就可以感觉这个动作相对来说比较连贯。现在Figure 02 Helix的这个展示呢，并没有那么连贯，所以应该没有加速，应该也没有遥控器，因为人家展示的是Helix的这个新的模型。如果你在后边上遥控器的话，那就属于纯骗人了，这个是有问题的。应该也不会说明明是都训练好这些动作，让你做的时候告诉你说这是第一次，因为他要展示的就是在复杂环境下，面对一些没有见过的设备，或者面对一些没有见过的食物，进行操作。如果我先给你训练好了，说这个鸡蛋怎么抓，那个东西应该放到冰箱，哪个东西应该放在这个盒子里去。</p>



<p>这个过程的话就有问题了。所以，他真正要展示的东西是不能作假的。但你说有没有存疑的地方，也有。你说到底是一次性就成功了呢，还是说我训练了好多次，才唯一的成功一次呢？这个事呢，其实是不知道的。</p>



<p>刚才你说，不是应该是第一次见到这些东西吗？对，对于计算机来说的话，你只要每一次重新初始化数据就行了，他就是第一次。我可以每一次把这些东西都搁在这，重摆好让他去拍。但是呢，应该是让他多练习几次，只是每次练习开始的时候，重置这个服务器就好了，或者重置机器人里边的尊重器。所以呢，每一次都是新的，这个没毛病。但是有可能是多试了很多次，终于成功了一次，给大家演示一次。下一次是不是还能成功，不好说。</p>



<p>Figure 02的Helix这个模型到底是怎么工作的呢？首先呢，它是两颗低功耗的GPU芯片，里边跑的两个模型。在当时Figure AI宣布离开OpenAI的时候呢，我做过节目，我去讲我说这个机器人里面一定是有多个模型配合工作的。现在看来是证实了我去讲的这个话。这两个低功耗GPU芯片呢，其实就已经可以去进行商用了。为什么？如果你在里头装，比如说高功率的芯片，上这种很大的模型的话，这种东西是没法商用的。你上了大功率的芯片了以后，你这个机器人就必须要拖一根线。你靠电池的话可能跑不起来这玩意儿，或者可能挂上电池以后，10分钟没电了，这个事是不能允许的。所以他现在已经开始把这个低功耗的芯片放到机器人里去了，进行这种商业化或者产品化，向这个方向前进了。</p>



<p>这种低功耗芯片的话，现在大家猜测，有可能是Jetson AGX Orin，英伟达的这个平台。这个平台呢，就是年初拉斯维加斯做CES时候，黄教主展示的机器人开发板。它是这样的一个设备。所谓开发板就是说，我已经把GPU、CPU、内存什么东西给做好了，就是这板子搁这了，你只管把它插到机器人里去，对它编程就完事了。是这样的一个东西。这个呢，是专门为机器人做的解决方案。</p>



<p>他们一套开发板的这个套餐的话，应该是2,000美元左右。两个的话，就比如说4,000美元。对于一个机器人来说，价格还是可以接受的。宇树科技的机器人现在搁在京东上卖也是9.9万一个，另外一个好像卖五六十万。所以在这样的一个设备里头，你装两块2,000美金的英伟达算力卡，还是可以的。这种芯片应该比现在咱们平时用的汽车上的英伟达芯片的算力还要稍微高一些。汽车上面那个应该一块芯片是256TOPS，它这个呢大概是275TOPS。每一块芯片的功率是55瓦，那你两块55瓦的芯片搁到这个机器人里面，你背一个稍微大一点的电池的话，还是可以跑一段时间的。你像我可能再过10周要去提的小米苏7 Pro上，应该是两块256TOPS的英伟达芯片。它这个机器人上是两块275TOPS英伟达芯片，比我那个车还要稍微的再算力强一点点。一块这样的芯片呢，跑7b的模型，每秒钟大概能够输出几十个tokens。它这个里边两个GPU跑两个模型，其中一个呢是开源的7B视觉模型，具有一定的推理能力。这个开源模型，它是开源开放权重的，他呢每秒钟呢可以生成7到9个指令，每一个指令呢可能有两到三个tokens，或者可能最多到5个tokens。现在呢并没有告诉大家具体用的是哪家的这个7B模型，因为开源嘛，Llava加上Mistra或者是Llama7B模型相结合出来，训练出来的这种视觉模型，是有一些开源的模型在跑。还有呢，就比如说通义千问，有一个叫千问VL的模型，是通义千问做的7B的视觉理解模型。DeepSeek还出了一个叫Janus，应该也是古希腊的一个神，叫Janus Pro 7B的一个模型。这个模型呢是双向模型，一边呢可以通过文字生成图片，另外一边的话你给它图片，它也可以进行理解。当然我觉得最大的可能呢，应该是用一个叫open VLA的模型，这个模型呢也是一个模型，它呢是斯坦福大学。</p>



<p>加州大学伯克利分校、丰田研究院、谷歌DeepMind以及麻省理工等机构联合研发出了一个名为“视觉语言动作模型”（VLA）的系统。VLA中的“V”代表视觉，“L”代表语言，“A”代表动作。该模型能够直接观察物体后进行语言反馈，并输出动作指令。这个模型使用了97万个机器人的演示数据进行训练，并在Llama2 7B的基础上进行了微调，专门适用于机器人的控制和操作任务。此外，该模型是开源的，因此用户可以自行微调或替换其他模型。</p>



<p>小模型是一个高速模型，由Figure AI自主研发，拥有8,000万个参数。与7B模型每秒7-9次的迭代速度相比，小模型能够以每秒200次的速度进行迭代，实时调整动作。这两个模型的配合方式是：7B模型负责思考和推理，下达指令；8,000万参数的小模型则根据指令完成具体操作。例如，命令机器人拿起鸡蛋并放入冰箱，7B模型负责下达指令，而小模型则确定手的位置、鸡蛋的位置、如何伸手、如何捏住鸡蛋以及将鸡蛋放入冰箱的具体位置。</p>



<p>Helix系统代表了这两个模型协同工作的完整系统，被视为一个AI代理，主要负责控制机器人的上半身，而下半身与此无关。</p>



<p>所以，这个机器人一开始动了脚，后面就只有上半身在动，那个脚就不动了。双击协调的部分，有可能是通过网络通讯来实现的。就是机器人之间有一些相互认证的接口，可以进行协作。就是有一个机器人说：“我现在需要一个什么东西了。”伸出手来说：“我等着拿东西。”在这个时候，另外一个机器人应该是接到了相应的网络指令，然后在他的整个动作的队列里边去加上说：“我现在要把这一袋需要冷藏的食物递给他，我现在把这个碗推过去，要等着你给我装苹果。”这个对于计算机软件编程来说，算是一个比较常规的操作吧。</p>



<p>为什么Figure 02的Helix这么引人注目呢？现在大家要是看到转手绢、翻跟头、跳舞这些东西，其实是没有什么感受的，就是你不会觉得这个东西好厉害。当然，你说有没有人看到转手绢、翻跟头、跳舞这个事觉得好厉害，肯定也有，毕竟屌丝是大多数嘛。但是对于一直在关注这个行业的人来说，大家要看的是什么？有自主判断能力的机器人，他可以通过视觉、通过摄像头，我去理解这一桌子东西都是什么，我可以通过推理来决定，哪个东西应该放到哪去，哪些东西应该进冰箱，哪些东西应该放在橱柜里，哪些东西应该放在橱柜上面那个盒里，哪些东西应该放在这个碗里。这个是真正可以去震惊大家的，他自主理解、自主规划，自主地完成了任务，甚至呢，还可以自主地形成一些协作。大家真正看的是这个东西。</p>



<p>现在呢，家庭环境成为了最新的看点。为什么呢？因为家庭环境是完全不可预期的环境。工厂环境就是完全可控的，在工厂里头可以出现螺丝螺母，可以出现各种弓箭，可以出现其他的各种设备，但是再多的东西都是可控的。你不可能说，我无限的东西出现在工厂里面，但是家里边就没法说了，你任何一个东西都有可能出现在家里。所以这一次Figure AI真正展示的就是，在完全不可预期的家庭环境里头完成任务。所以一开始这个帅哥就说：“你们是第一次看到这些东西，请按照你们的理解推理了以后，去把它们分别类放好。”</p>



<p>这个是真正要演示的东西。原来处理这些东西的方式是什么呢？以前叫穷取法，或者是进行一定的归纳。穷取法是什么？就是每一样东西来了以后给它编程。鸡蛋应该怎么处理？咖啡应该怎么处理？我来编程。以前是这样来处理的，一旦见到没见过的东西，就没法整了。归纳法是什么呢？就是对这个机器人进行训练，找一堆人拿着遥控器，操控机器人去做各种动作。把这些数据收集起来以后，去训练机器人。你去给我干这活去。现在马斯克就是在招了一大堆的擎天柱训练员在进行训练。这是另外一种方式。</p>



<p>但是呢，甭管是穷极法还是归纳法，你都面临一个问题。这个问题叫意外。这个东西我没见过，或者我归纳了半天新的东西，我没有办法把它放到原来这个归纳的类别里边去分类。这个都是会比较麻烦的。这一次展示真正令人激动的是什么？就是自主的识别自主推理，不需要训练。一桌子东西都是第一次见到，就可以对各种不同的环境和场景直接完成任务。这个是真正让大家觉得很兴奋的地方。</p>



<p>那你说转手绢的这个机器人，跟今天我们看到的Figure02之间，到底差多远呢？很多人说差远了。中国人怎么可以？咱不讨论这个问题。第一个小模型这一块，就是你控制动作这一块，现在Figure AI是自己做了一套这样的模型。这一块呢，中国的像宇树科技，他们其实也是可以去做的。而且呢，不需要自己做。谁做？英伟达做。完完全全可以跟英伟达去协作，去搞这个事情。甚至你手里有大量的数据的话，可以跟英伟达协作，去训练一些新的模型出来。但是这个模型到底是好不好用，或者能够达到一个什么样的能力，这块呢我觉得我们还需要给他一点的时间，让他去迭代吧。</p>



<p>训练这种小模型，其实中国人是有经验的，而且这块算是比较领先的一个状态了。你比如说谁会干这个事？大疆就是干这么个事的。这种无人机在天上飞，它是要靠飞控系统的。现在这种就是，至少消费型无人机的飞控系统的话，你认为它是一个小一点的这个AI系统，也没有任何问题。</p>



<p>在这一块的话，大疆基本上算是遥遥领先，没有任何问题。至于说大一点的模型，就是7B的模型在这个里边算大的了。视觉语言动作模型的话，反正是开源的，你能用我也能用，我们也可以自己再去微调，去训练这个模型进行替换。现在Deepseek可以把视觉语言模型搞定，他现在没有动作这部分嘛。千问也可以做7B的模型，把这个动作，把这个视觉跟语言搞定。你说我们现在重新进行动作训练，这个事应该也没有那么费劲。而且现在很多的这种动作训练模型，其实都不是拿实际的机器人去训练的，都是在这种物理引擎驱动的虚拟空间下去进行训练。就是英伟达为什么会努力的去推他们这个开发套件，就是这样的。因为我们去开发游戏的时候，你是一个3D的有物理引擎驱动的空间，甭管你是在Unity下，还是在Unreal下，它是这样的一个空间环境下，它里头的各种物体也是有它的碰撞，有它的运动轨迹。我们在这样的这个空间里头去进行机器人训练的话，这个速度还是非常快的，它可以快速的生成一大堆数据。</p>



<p>咱们再看看语数科技的机器人，跟今天我们看到的Figure 02的机器人去比较一下，你会发现呢，工业设计上还是差比较远的。英伟达的芯片，模型上其实差的都没有那么远，但是工业设计差挺远。人家那东西，看着还是比较好看的吧，咱们那个真的是丑陋。虽然他可以穿上红棉袄红背心，可以转手帕绢可以跳舞，但是这个东西站在你面前还是很丑。在这点大疆的工业设计其实做的是很强的，人性化表演这一块差的非常非常远。宇树的机器人看着就反正不像人。这一次Figure02的这个表演里头，虽然始终没有说话，但是呢，他的一些动作让你看着会比较舒服。这些动作呢，应该是专门设计出来的，不是训练出来，应该是设计出来的。在这一块呢其实还是有很长的路，我们需要去追赶。还有一个是什么，就是讲好故事的能力也有待提升。你让这个机器人上去跳舞，直接摔一个狗啃泥，Figure 02的机器人。</p>



<p>你让他跳舞的时候，会不会摔狗啃泥不知道，但是人家设计整个故事，设计整个这个拍摄脚本，这个能力还是非常强大。我觉得值得我们去学习。最终的结论是什么呢？就是我们的机器人，其实距离这个并没有那么远。就是完成所有的工作，可能也能完成，只是呢比较丑陋，看着比较瘆人，或者可能有一些动作，我们现在完成的没有那么顺畅。这一次我们看到的 Figure AI 给出来的这个方向，是非常非常激动人心的。我们就可以照着这个方向，快速的往前奔跑了。好，这就是这一次 Figure AI 给我们展示的双人成型，真正给整个行业带来的影响。感谢大家收听，请帮忙点赞，点小铃铛，参加 Discord 讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>稚晖君机器人VS 特斯拉擎天柱：独家揭秘中国与美国人形机器人背后的技术与策略</title>
		<link>https://lukefan.com/2024/08/22/%e7%a8%9a%e6%99%96%e5%90%9b%e6%9c%ba%e5%99%a8%e4%ba%bavs-%e7%89%b9%e6%96%af%e6%8b%89%e6%93%8e%e5%a4%a9%e6%9f%b1%ef%bc%9a%e7%8b%ac%e5%ae%b6%e6%8f%ad%e7%a7%98%e4%b8%ad%e5%9b%bd%e4%b8%8e%e7%be%8e/</link>
		
		<dc:creator><![CDATA[Luke Fan]]></dc:creator>
		<pubDate>Thu, 22 Aug 2024 00:43:30 +0000</pubDate>
				<category><![CDATA[机器人与具身智能]]></category>
		<category><![CDATA[A2 MAX]]></category>
		<category><![CDATA[AGI]]></category>
		<category><![CDATA[AI训练]]></category>
		<category><![CDATA[Optimus]]></category>
		<category><![CDATA[power flow]]></category>
		<category><![CDATA[三花控股]]></category>
		<category><![CDATA[上汽集团]]></category>
		<category><![CDATA[中国人形机器人]]></category>
		<category><![CDATA[产业链]]></category>
		<category><![CDATA[人工智能]]></category>
		<category><![CDATA[人工智能大模型]]></category>
		<category><![CDATA[人工智能趋势]]></category>
		<category><![CDATA[人形机器人市场]]></category>
		<category><![CDATA[人形机器人领域]]></category>
		<category><![CDATA[人机界面]]></category>
		<category><![CDATA[人机训练]]></category>
		<category><![CDATA[传感器]]></category>
		<category><![CDATA[力度控制]]></category>
		<category><![CDATA[动作捕捉]]></category>
		<category><![CDATA[动力关节]]></category>
		<category><![CDATA[动力域]]></category>
		<category><![CDATA[原子能力]]></category>
		<category><![CDATA[商用机器人]]></category>
		<category><![CDATA[复印机]]></category>
		<category><![CDATA[大数据训练]]></category>
		<category><![CDATA[姿态控制]]></category>
		<category><![CDATA[实验室产品]]></category>
		<category><![CDATA[开源硬件]]></category>
		<category><![CDATA[开源策略]]></category>
		<category><![CDATA[开源软件]]></category>
		<category><![CDATA[感知域]]></category>
		<category><![CDATA[扫描仪]]></category>
		<category><![CDATA[拧螺丝]]></category>
		<category><![CDATA[控制域]]></category>
		<category><![CDATA[数据采集机器人]]></category>
		<category><![CDATA[斯坦福机器人]]></category>
		<category><![CDATA[智源科技]]></category>
		<category><![CDATA[智源科技投资人]]></category>
		<category><![CDATA[智能化路线]]></category>
		<category><![CDATA[机器人发展阶段]]></category>
		<category><![CDATA[机器人发布会]]></category>
		<category><![CDATA[机器人图纸]]></category>
		<category><![CDATA[机器人技术]]></category>
		<category><![CDATA[机器人接口]]></category>
		<category><![CDATA[机器人未来]]></category>
		<category><![CDATA[机器人生产]]></category>
		<category><![CDATA[机器人设计图]]></category>
		<category><![CDATA[机械手臂]]></category>
		<category><![CDATA[机械结构]]></category>
		<category><![CDATA[模块化设计]]></category>
		<category><![CDATA[比亚迪]]></category>
		<category><![CDATA[灵犀X One]]></category>
		<category><![CDATA[灵犀X One杠W]]></category>
		<category><![CDATA[特斯拉擎天柱]]></category>
		<category><![CDATA[电动机]]></category>
		<category><![CDATA[硬件开源]]></category>
		<category><![CDATA[程序编排]]></category>
		<category><![CDATA[稚晖君]]></category>
		<category><![CDATA[端到端训练]]></category>
		<category><![CDATA[自动化阶段]]></category>
		<category><![CDATA[自摸功能]]></category>
		<category><![CDATA[远征系列]]></category>
		<category><![CDATA[远征系列A2]]></category>
		<category><![CDATA[远征系列A2杠W]]></category>
		<category><![CDATA[通用人工智能]]></category>
		<category><![CDATA[通用操作大模型]]></category>
		<category><![CDATA[通讯域]]></category>
		<category><![CDATA[重载特种机器人]]></category>
		<category><![CDATA[零部件市场]]></category>
		<category><![CDATA[马斯克]]></category>
		<guid isPermaLink="false">https://lukefan.com/?p=1506</guid>

					<description><![CDATA[亲爱的家人们，今天老范我要和大家好好说道说道，前几天稚晖君发布的那些令人叹为观止的新型人形机器人。国内AI科技正以加速度发展，稚晖君显然已经站在了风口浪尖，与特斯拉的擎天柱形成了鲜明的对比！

首先，远征系列的A2人形机器人，不仅有颜有料，更有力量，能搬运40公斤的重物呢！这种力量，以前可是只能存在于科幻电影里的。但现在，稚晖君的AI科技让我们看到了现实的可能！

再来说说这个轮子版的A2杠W，它的出现简直让人眼前一亮，上半身是智能，下半身是速度，这不就是未来机器人的完美配合吗？

但你以为这就结束了？不，稚晖君还有“one more thing”——灵犀系列小机器人。小巧灵活，无论是X One还是X One杠W，它们都是智能与速度的完美结合，让我们不禁感叹，现在的科技真能给人带来无限惊喜！

重点来了，稚晖君不仅仅是在机器人技术上取得了突破，他们对机器人的模块化设计、发展阶段的划分，都显露出了深谋远虑和高瞻远瞩。AI训练和数据采集，这些都在为中国的机器人技术奠定坚实的基础。

最后，稚晖君的智源科技，全面开源了自己的技术和机器人各个部分，这种大气与胸怀，无疑是在为国产机器人技术的发展按下了加速键！

好啦，今天的分享就到这里，希望大家能够感受到稚晖君带给我们的震撼和国产AI科技的魅力。如果你对这些新型机器人感兴趣，或者对国产科技有什么好的看法，不妨在评论区给我留言，一起探讨！记得点赞和关注哦，我们下期不见不散~ 🚀🤖🌟]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="稚晖君机器人VS 特斯拉擎天柱：独家揭秘中国与美国人形机器人背后的技术与策略" width="900" height="506" src="https://www.youtube.com/embed/adLbej-W5Gs?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>稚晖君刚刚发布的中国人形机器人跟特斯拉的擎天柱相比，到底有什么不同呢？大家好，这里是老范讲故事的YouTube频道。今天咱们来讲一讲，前几天刚刚开过发布会，一下推出一大堆人形机器人或者各种新机器人的稚晖君到底都发了些什么。他跟特斯拉的擎天柱之间到底有什么差异？</p>



<p>稚晖君呢，现在有一个很神奇的名字，叫“B站年更UP主”。为什么叫年更UP主？像我这种叫日更，基本上每天都有节目；有些是周更，有些是月更。但稚晖君呢，现在基本上是每年更一条。原来更新的还稍微频繁一些，后来在创业开始做人形机器人之后，基本上变成年更了。</p>



<p>这一次呢，发了一堆的机器人。第一个是远征系列，远征系列的人形机器人是A2。长得好不好看这事咱就不研究了，反正也是长得像个人一样吧，两个胳膊、两个腿，一个躯干、一个脑袋，对吧？基本上就是这样的一些东西。</p>



<span id="more-1506"></span>



<p>然后呢，有一个叫A2杠W的机器人。这个机器人呢，把下边的脚换成了轮子。这车有上半身，下面是一个小车，这个上半身是挂在一个架子上面，可以四处移动的。</p>



<p>还有一种呢是A2 MAX。这个叫Max，一般会大一些。就这个机器人还是小的，但是它可以搬运40公斤的重物，算是重载特种机器人。就一般情况下，用电动机做的这些机器人呢，也就是20公斤或者最多30公斤，但A2 Max是可以搬40公斤的。不过这个机器人呢，目前还在研发过程中，还没做出来。</p>



<p>到最后呢，有一个“one more thing”，就是多出一样东西来，是什么呢？叫灵犀。这个呢是小一些的机器人，灵犀X One和灵犀X One杠W。一般杠W的就是把这个腿去了，换成轮子，可以挂在车上走来走去的。</p>



<p>所以呢，一共发了五款机器人。这一次，稚晖君对机器人做了一定的划分，表示这个机器人是模块化的，分为几个部分。第一个叫动力域，就是可以产生力量的各种关节和它的电动机。第二块是感知域，指的是可以听到、看到，以及在手指尖上可以做些什么事情。</p>



<p>因为里面演示了一个特别有趣的东西，中国机器人嘛，干嘛打麻将啊？你说打麻将这事，告个摄像头不行吗？打麻将还有一个东西叫自摸，对吧？你得拿起这张牌来，不能看，得知道是什么啊。这是中国机器人必须要有的功能。</p>



<p>其实，人跟机器人比较起来，有一个特别麻烦的东西是什么呢？就是人身上的皮肤全都是传感器。我记得我们在盛大创学院的时候，那时候也尝试做机器人，后来发现最贵的东西就是传感器。你要想把这一身所有的皮肤都做成传感器，这是不可能的。所以只能怎么着呢？就是机器人上有个别地方有传感器。你摸了特殊的地方，它会做特殊的动作；没摸着那个传感器，它就做不了了。这些都是人形机器人跟人之间比较大的差异。</p>



<p>再跟大家讲一个小故事。大家知道复印机和这种高档的扫描仪，或者是高档的复印扫描一体机里头最贵的部分是什么？也是传感器。那它的传感器干嘛用呢？就是能够去测试你这张纸放上去以后的正确位置。它不是说我整个把它都扫完了以后，再在里边去确认哪一块是纸的位置，再去把它摆正，不是这样。以前的扫描仪上有很多传感器，你把纸摆上去以后，它就知道你这个纸摆在什么位置，是多大的纸，横着摆的、竖着摆的，这都能算出来。</p>



<p>所以，第二个部分叫感知域。第三个部分是通讯域。作为一个机器人来说，你不可能完全断网工作，所以它一定是有通讯的部分。</p>



<p>对吧，可以跟这个服务器，或者跟一些其他的网络上的设备进行通讯。最后一块呢，是控制域。控制域实际上就是现在AI大模型该干的活。</p>



<p>现在把机器人分成了四个组成部分，而且稚晖君对机器人还划分了五个发展阶段。这五个发展阶段，第一个叫G1，是传统自动化阶段，人工编排基本上不具备泛化能力。什么意思呢？就是你说好了，把这个螺丝从这边拿起来，到那边拧上。最多可以干什么呢？拿起螺丝以后，前面看看这个洞在什么地方，然后正确做好位置，啪，把它拧上去，这个是可以做的。</p>



<p>但是什么叫泛化能力呢？就是这个机器人不在做编程的情况下，拧完螺丝以后，可以到那边去拧螺母，或者说去做一些拆螺丝，做一些其他的事情，做不了，对吧？你换一个工作就得重新编程啊，这就是。</p>



<p>然后G2是什么呢？原子能力的提炼与复制，包括姿态控制、抓取、力控插拔，插进去到底有多大力量。这一块依然需要大量的手工编排，但是这一块已经可以进行拼插了。就是说，我把这一大堆的原子动作训练好了以后，就可以让他们进行衔接了。这是第二步。</p>



<p>到第三步，就是用AI数据和算法来驱动这些原子能力。我们不用再去编程了。说什么叫拧螺丝，这个孔应该拧哪号的螺丝，什么叫做姿态控制，我能够站着，还是能够坐着，还是被人踹了一脚，怎么能够不倒下。这个原来是靠编程的，就是如果这个数值在多到多少之间，向左迈一步，大概就是这样的一种东西。现在是变成用AI训练，就是你给他一大堆数据去做一些训练，这个训练是需要单独采集一大堆数据，再去训练不同的技能，可以做一些端到端的训练，而不是说原来我靠摄像头拍摄到了一个什么东西。</p>



<p>在后边，先去识别，识别完了以后再去做什么动作。不是这样，而是说我把一大堆人做动作的过程记忆下来，记忆完了以后再去对很多次人做同样动作或者做类似动作的数据进行一个训练，就完事了。这是现在G3到G4的通用操作大模型了。</p>



<p>什么意思呢？就是以物理逻辑对齐之后完成一系列的任务。到G3的时候，虽然他已经开始用大模型训练了，但是他最后记下来的还是一堆的原子任务，比如拧螺丝、拿东西放到哪去。到G4的时候，说：“请把什么东西从哪拿下来，放到什么地方去。”你这个力度应该怎么去判断力度，其实也很简单。你说我捏针，那一定要用点力；那你说我要捏个葡萄，那你要轻一点。这就是什么呢？就是用一些物理相关的底层逻辑进行一下对齐，说你不能把葡萄捏破了，也不能因为手上力度太小，拿起针来针掉了。</p>



<p>这个是到G5，G5就是AGI了，就是通用人工智能了，基本上长得跟人一样，可以做各种各样的事情。这就是G5。</p>



<p>所以，现在稚晖君把整个机器人的发展历程归结为五步。而现在稚晖君的智源科技目前在干什么呢？他们现在正在向G3进发，开始做一些人工训练，已经不用再去编程了，可以进行动作捕捉，然后进行大数据训练。现在属于越人工越智能这么一个阶段。像他们做的有轮子的机器人，无论是大号的有轮子还是小号的有轮子，实际上干的活都叫数据采集机器人。</p>



<p>是什么意思呢？他把腿跟上半身分开，腿的那部分单独训练，上半身则要去拿各种东西，做各种各样的应用，上半身单独去训练。所以他们叫数据采集机器人，采集人在他面前做的各种，比如说拿东西、拧螺丝、穿针引线、摸麻将，训练完了以后。</p>



<p>他就训练上半身。现在呢，在做大量的人工数据采集，然后进行端到端训练。那么说到这里，特斯拉的Optimus，也就是擎天柱，他们到什么样的一个状态了呢？咱们得比较一下。现在特斯拉也在干这个活，招募大量的人机训练采集人员。当然，大量到多大呢？去年招了50多个，今年应该还在继续招募，也在越人工越智能的这个阶段，就是靠采集人的数据去训练Optimus。</p>



<p>他对这个人员的要求是什么呢？170到180厘米，这个我是合格的。然后呢，可以负重30磅，也就是27.2斤。这个要求真的是不高，因为大家要知道，在欧美国家，如果要求一个工人，哪怕是蓝领工人做这种很重的负重，他们通常是使用机械的。所以呢，他们一般不会要求工人去做特别高的负重，因为一旦发生工伤，他们也很麻烦。所以他们对这块的要求就是30磅。</p>



<p>然后呢，要求穿着动作捕捉服步行7小时。这件事怎么说呢，反正也挺辛苦的。动作捕捉服这个东西，现在倒是没有多重，它就是一身衣服。在这个衣服上呢，有一些电子元器件，你在一个房间内部运动的时候，它就可以把这些电子元器件的运动轨迹都捕捉下来。可能跟我们正常穿的衣服差不太多，如果不要求他跑跳纵跃其实还好。但是连续走7个小时，这个你让姑娘去逛街这事行，其他男生估计比较难以承担这样的体力劳动。</p>



<p>然而挣的钱并不少，时薪48美金。从去年的LinkedIn数据来看，招募了大概大几十人，今年继续招募。所以特斯拉现在也在干这个活。那么稚晖君跟马斯克的机器人比起来，到底是一个什么样情况？在机械的部分里头，其实甭管现在稚晖君的拿出来的机器人，远望系列、远征系列还是灵犀系列，包括马斯克的Optimus擎天柱，都是实验室产品。</p>



<p>这样的产品，离最终的量产还是有一定的距离的。在智能化路线上，都在走越人工越智能的这一步。现在都是在招募人员，进行端到端训练。但是呢，这里头有一个差异，就是马斯克的Optimus应该是直接做整体端到端，就是连手带脚整个的动作一起端到端全训练了。而稚晖君呢，是身子跟腿是分开的，先搞定原子动作训练，然后再想办法进行合成。这是这样的一个工作方式。</p>



<p>马斯克的Optimus已经可以在特斯拉的工厂里边表演上班了。还注意，这个上班是表演出来的。而稚晖君的远征系列机器人，现在是不是可以上汽车厂里边去干活了呢？应该也有机会，只是还没有去表演。因为我们去看一下智源科技后边的投资人，有一个投资人叫比亚迪，还有一个投资人叫上汽集团，还有一个投资人叫三花控股。那时候，三花控股干嘛？三花控股也是生产大量汽车原配件的。这些公司都是他的投资人。所以，后面稚晖君的机器人去汽车厂打螺丝，应该离我们已经不远了。只是国内的工人工资，要比机器人更低一些。</p>



<p>最后，开源方面呢，马斯克的Optimus虽然并没有说我马上要开源，但是内外结构的照片影像资料，从来不吝啬往外放。从最早的只有一空框架，线都甩在外边，到后来的各种模型，都是给大家看的。大家照这个样子去做新机器人，或者说大家做机器人的时候，是不是参考了马斯克机器人的设计，这件事情马斯克自己其实也没有那么在意。而智慧勋的智源科技这里，就直接全方位开源了，连软件带硬件一起都开源。特别是他最后发布的这个灵犀机器人，发出来以后说，我们就不跟其他人打价格战了。马斯克号称一个机器人可能10万块钱，或者几万块钱人民币啊，人家说，我不给你打价格战了，那多少钱呢？0元。</p>



<p>什么意思？整个开源，连图纸带里头所有的软件通通都开源了。你想装，你自己装去。变成这样的一个设备。我们前面讲到的什么感知域、控制域，后边的各种通讯域，所有跟软件相关的，稚晖君定义好的这些机器人组成部分也都开源了啊。就这些软件架构，外边都是可以直接使用的。</p>



<p>那么稚晖君的机器人路线中，是否有马斯克的Optimus不具备的部分？有啊，哪一部分不具备？就是有一些中国特色。打麻将吗？不是啊，什么是中国特色？叫卖零部件。马斯克从来没有说我要把擎天柱的奠基卖了，要把擎天柱里面的一些什么配件卖了。但稚晖君说，我们要卖。卖什么呢？各种动力关节。他们把这东西定义了一个名字，叫power flow。这样的东西实际上就是它使用无刷电机，高效模块化，灵活可靠可控制，控制也很精准，而且很稳定的这样的一种关节。我把这玩意都卖了，我不是设备开源了吗？你可以照着我这个开源的设备、开源的图纸重新造机器人。但是机器人里的关节，你就买我的就完事了。咱卖的也不贵，拿着这些东西，你就可以拼出来完整的机器人了。他在走这样的一条路。</p>



<p>那么稚晖君给巨身智能到底能够带来些什么呢？还记得斯坦福前面发表的这种机器人啊，虽然他的大模型部分非常惊艳，可以做各种各样的事情，但是这个机器人在机械的部分和电器的部分还属于在乐高积木的水平上。直接在底下是一个小平板拖车，平板拖车上放的是笔记本电脑，剩下的东西大量都是用的乐高积木或者一些这样的东西来实现的。以后再去做类似这样的东西，各个大学在想，我们要在机器人上有所进展，那就可以直接用这些动力关节，用开源的软件架构快速推进了。而稚晖君不光是开源了灵犀系列的设计图，开源了所有的软件架构，同时卖动力关节，还开源了机械手臂。你说我就要个机械手，也有开源的产品。而且各种的软件中间键，你说我再想去调谁家的大模型，怎么去控制这些设备，通通使用稚晖君家的这些开源软件就可以。</p>



<p>稚晖君的智源科技呢，到现在为止，融到的钱应该还算够花。短期内这些产品推向商用，可能还有些难度。但是呢，加上中国相对完善的产业链，应该最后会有一个结果。这个绝对是一个长期投入、长期产出的一个项目。</p>



<p>未来的全世界的这种机器人领域里，或者说叫人形机器人领域里，智源科技应该会占有一席之地。甭管是他现在推出的这些动力关节，还是说他现在确立的各种标准，这个先行者就是定标准。你看，我给你分好了，机器人分几块，机器人发展分几步，那么大家可能会照着这个方向继续往前走。这也算是稚晖君为整个巨身智能能够留下的痕迹吧。</p>



<p>至于说以后到底能够占到多少市场份额，垄断基本上已经甭想了，尽量多占一些，这就是他现在能够争取的事情了。好，这一期就跟大家讲到这里，感谢大家收听，请帮忙点赞，点小铃铛，参加Discord的讨论群，也欢迎有兴趣、有能力的朋友加入我们的付费频道。再见。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
