风口上的机器人,其实离“上班”还有点远

发布时间:2025-09-20 00:08  浏览量:1

众所周知,人形机器人,那可是今年爆火的科技。但我发现这玩意有多火,争议也就有多大。

因为自打春晚机器人扭秧歌开始,这行发展的是真的快。4月份机器人马拉松才跑步呢,8月份就能开运动会了。

各种机器人展会今年也不少,甚至WAIC这个往年搞大模型的展会,今年也腾了好大一块地放机器人。

但你别看场面上热热闹闹,喧嚣之下也涌现出另一种声音。

今年年初金沙江创投的朱啸虎直言:“人形机器人就是泡沫”。

不少网友其实也有点这意思,道理嘛也显而易见,视频上这一个个机器人好像都能上天,巴不得赶明儿就搞成终结者,然而现实里,这些钢铁boy们连个门都打不开。。。

先说立场,哥们我是觉着,具身智能这玩意以后肯定大有作为,包赢的。但是为了搞清楚,为啥这里边儿有这么多争议,我也去扒了行业现状。

结果没想到,我发现有些问题还真不完全是瞎说。

因为在具身智能这个产业里,确实还有一些难点。就别说网友了,甚至不少业内人士对这些行业问题也没达成共识。

举个例子,这行现在连技术路线都还没统一。未来到底是强化学习牛逼,还是世界模型牛逼?我们应该更关注数据,还是更关注模型?……这些问题都没个定论,大家只能各搞各的,没法形成合力。

懂行的朋友看到这可能就要说了,那不管咋说,他们这些路线的目的,起码都是一个吧。

有一说一,确实。如果只看目的,那整个机器人产业的终极价值,就是参与劳动,提高生产力。和咱人类一个样,“劳动最光荣”嘛。

但问题是,就算咱抛开这些分歧不谈,还有一个更直接、更要命事儿摆在行业面前:没数据。。。

这可不是哥们瞎说,现在整个行业都在面临“等米下锅”的问题。

因为你要想让一个大模型智能涌现,那至少需要100亿到1万亿个Token的数据,差不多是模型参数的10倍以上。但现在呢?大部分研究的数据量都只有几个亿,最大的公开数据集也就10亿左右。

俗话说重复是学习他爹,你这训练量不够,那肯定没法涨技能啊。

所以这就导致现在的机器人,任务种类是少得可怜,泛化性是差得离谱。说白了,没有足够的数据去训练,尤其是真实场景的数据,导致机器人都是实验室里“圈养”的胖宝宝,一到现实就抓瞎。

数据瓶颈,死死卡住了机器人从实验室走进厂里、屋里的路。这个月的外滩大会上,宇树创始人王兴兴也是这个意思,当前具身智能发展面临的多重挑战中,其中一个就是数据方面的问题。

拿VLA模型来说,目前与真实世界交互的数据就不太够用。

不过,要因为有难点就否定行业,我觉得也有点着急了,咱最好还是看看行业内有没有什么对应的解法。

我们找到了一个在华为云搞具身智能的朋友,人家就说:“行业问题是没错,但你也不能只看到这一层。”

什么意思呢,就是要解决这些新技术里的新问题,那肯定也得有新的方法论和平台。

就比如上云,用云端的方式,来系统性地解决机器人产业的各种难题。

拿我们前面说的,这个首当其冲的数据问题来说。

既然现实中数据采集和训练都非常困难,那能不能把这些东西搬到云上做呢?还真可以。

实际上,这也是个行业趋势,像英伟达最近搞的Cosmos基础模型,就是用云端生成合成数据来训练物理AI。

包括国内,华为云也有一个CloudRobo具身智能平台。它也是在云端能造出一个数字世界,跟现实一模一样,然后在这个里面生成数据搞训练。

这就好比给机器人开了个《黑客帝国》里的训练模式,在虚拟空间里把十八般武艺都练熟了,再回到现实世界里干活。

那它们是具体怎么做到的呢?说来也不复杂,主要分两步。

第一步,是解决数据的问题,也就是先得有米。

像华为云CloudRobo,背后就是靠一个叫MetaEngine的自研引擎,来搞数据重建,把一个真实的物理场景,在云端复刻出一个数字孪生体,整个过程低人工,自动完成。

然后,再在这个虚拟场景里搞数据增广。其实就是在这个数字世界里,模拟各种形态的机器人,生成海量的第一视角数据,什么RGB图像、深度、时序数据,要啥有啥,还都带着自动标注。

据说以后在某些场景下的机器人训练,可以通过真实数据跟合成数据的比例调整,提升训练效率,就基本上能够解决“没米下锅”的问题。

之前银河通用创始人王鹤甚至说过,合成数据会占训练数据的绝大部分,而且一般人还做不来,需要厂商有长期的积累和核心技术know-how。

然后第二步,就是解决训练和运行的问题,也就是让机器人学着干活儿。

CloudRobo的训练平台,就能让机器人在这个虚拟世界里,通过模仿学习,进行无数次的“虚拟劳动”,也就是能大幅降低试错成本,加速技能学习。

这俩搭配起来,其实是个很前沿的想法。

以前要想练一个机器人的模型,那机器人怎么运动,是要人来喂数据的,甚至有的数据采集还得动补,这就跟铁甲钢拳似的,你一边动它一边记录数据,然后反复学习。

但是要把这都搬到虚拟世界里,那就非常便利了,因为云端的训练完全是算力和电量决定的,就现在这些云厂商的保障,你在外面哼哧哼哧搭一天环境,人家可能已经搁里边儿训练了两年半了,每天都跟凌晨四点洛杉矶似的。

而且人家在这里面学成之后,它的运行平台还能无缝连接实体机器人,直接传进机器大脑里,开机就能唱能跳能干活,所以这也就是为啥不少大厂都在琢磨这个方向。

光说不练假把式。之前华为云就现场展示过一段从CloudRobo毕业的双臂机器人,在一个小小的分光盒里进行高精度操作,成功率达到了90%以上。还能让埃夫特的工业喷涂臂,快速学会喷涂新零件;能让乐聚的人形机器人,在汽车产线上搬运上料啥的。

所以我觉得,在云上解决数据和训练这事,其实很有前景。

但除了在云平台搞数据仿真训练,机器人这行业里还有不少复杂问题,现在也有了靠云端来解决的解法。

比如这行里现在还有个问题是,行业标准乱,各家机器人厂商像早期的手机厂商似的,诺基亚、摩托罗拉、爱立信,系统、充电口全都不一样。那这情况肯定没法像iOS安卓鸿蒙一样大规模多机协同。

所以就需要一个统一的协议,让他们互相能听懂。华为云老哥说他们有个方案,叫R2C(Robot to Cloud)协议。这个就类似机器人界的“Type-C”接口。主要就是给来聚合大家的生态,推动行业标准化的。

只要是预置了R2C接口的合作伙伴,就能实现“即插即用”。这就好比你买个新鼠标,不管Windows还是Mac,插上USB口就能用,不用再到处找驱动盘了。

像国家地方共建人形机器人创新中心、拓斯达、优艾智合等各个领域的头部玩家,都加入了R2C协议。有种振臂一呼,各大门派纷纷响应的感觉,大家都开始上船了。

不过咱说句实话,不怕得罪人,就是上云这个事呢虽然好,但是也肯定不是包治百病的,啥时候都能用。

你想想那些对实时性、安全性要求极高的场景,人家可能还是想搞本地计算,这咱得理解。

实际上,虽然咱经常跟大家说上云,但是云计算的真正价值,其实是在于那些更复杂的场景。像什么最耗算力的复杂场景识别、任务规划、模型调用这些工作,其实以后很可能都交给云端,机器人本体就更专注于执行,变得更轻、更便宜。

换个角度,你也不想你的机器人整体背个大电脑对吧,这玩意不方便我说白了。所以这么一来,就能为机器人从实验室走进工厂,走入家庭,提供了一种可能的路径,这就是所谓的云本体化。

之前王兴兴在WRC演讲的最后,也说到人形机器人本体上,其实没办法直接部署很大规模的算力,所以这玩意以后肯定要靠分布式的集群算力来解决。这其实就是用到了云端算力来解决问题。

就在这几天,华为在AI算力方面也有了新的布局:其发布了最新超节点产品Atlas 950 SuperPoD和Atlas 960 SuperPoD超节点,分别支持8192及15488张昇腾卡,在卡规模、总算力、内存容量、互联带宽等关键指标上全面领先,在未来多年都将是全球最强算力的超节点。

基于超节点,华为同时发布了全球最强超节点集群,算力规模最大将达到百万卡,作为世界最强算力集群将为具身智能行业创新突破提供稳固且澎湃的算力支持。

华为全联接大会2025:华为副董事长、轮值董事长徐直军发表主题演讲

说到底,上云也好本地也好,这些技术手段都是来给咱解决问题的,让机器人早点去劳动,参与社会实践,那就是好手段。

总而言之,那些说机器人是炒作的声音,其实也没全错,他们确实指出了行业现存的困难。

但只看到困难,就跟只看到冰山一角一样,容易得出悲观的结论。

所有技术的喧嚣都终将过去,这些人类的造物,最终要从学校走上社会,在拧紧的螺丝、搬运的物料、焊接的缝隙中来验证它们的价值。

一句话,具身智能这事儿,太复杂了,还是需要一个甚至几个跑在前面的人站出来,先不做机器人本体,先把基建搞出来。

其实务实一点也真没错,与其在岸上争论这道能不能走,不如把路修起来。

毕竟,路修宽了,大家才能跑得更快,更远。