你有没有发现?最近两年大家聊AI,开口闭口都是GPT-4多能聊、大模型多能算,好像只要把模型参数堆得足够大,就能造出无所不能的机器人。但前阵子我翻《Science Robotics》期刊时,看到剑桥大学Amanda Prorok教授的研究,差点惊掉手里的咖啡——她直接说:“追单一‘超级大脑’的机器人路线,从根上就错了!”
作为在机器人领域摸爬滚打5年的博主,我太懂这种“堆模型”的执念了。去年跟一家做家庭服务机器人的团队吃饭,他们CTO吐槽:“为了让机器人同时搞定识别家具、听懂方言、避开宠物,我们把模型参数从10亿加到80亿,服务器电费每个月多花20万,结果机器人还是会把拖鞋当成猫抓板——反应太慢了,等它算完,猫都跳上桌子了。”

第一个死穴是“计算撑不住”。你可能听过“深度学习扩展定律”,简单说就是机器人想做更复杂的事,模型规模和数据量得呈指数级涨。现在主流的机器人视觉模型,比如DINOv2,参数都快赶上一个小语种的词汇量了,跑起来得占几百GB内存。Prorok团队测过,就算用性能顶尖的工业开发板,这模型每秒只能处理不到10帧画面(推理频率<10Hz),但机器人要在客厅里躲开小孩,至少得每秒处理50-100帧——就像你用2G网看直播,画面卡成PPT,还怎么躲?
第二个死穴是“适应力太差”。我之前见过一台餐厅机器人,在固定路线上送菜挺顺,但有次客人把椅子挪了半米,它就对着椅子转圈,直到没电都没找到新路线。这就是单体模型的毛病:在实验室里练得再熟,换个小场景就“失忆”。Prorok教授说,要让单体机器人适应新环境,得重新喂几万组数据训练,成本比买台新机器人还高——这哪是做机器人,简直是养“娇生惯养的少爷”。
第三个死穴更扎心:“成本下不来”。去年深圳有家工厂想换一批搬运机器人,一算账傻了眼:能同时处理导航、称重、扫码的单体机器人,每台要12万,而只做单一任务的简易机器人,每台才3万。老板最后叹口气:“除非我工厂是印钱的,否则真用不起。”

最后是“不怕故障,越用越稳”。我之前在医院见过达芬奇手术机器人,它有4个机械臂,每个臂只负责一种操作:有的夹手术刀,有的吸血,有的扶组织。有次其中一个夹刀的臂出了小故障,系统立刻让扶组织的臂临时补位,手术没耽误一秒。这就是集体智能的“冗余设计”——不像单体机器人,一个零件坏了整台就废,组队的机器人就算有一两个“请假”,其他的也能顶上。
三、从实验室到生活:集体智能已经在改变我们的世界可能有人会问:“这玩意儿听着挺好,但离我们普通人远不远?”其实一点都不远,我给大家举3个身边的例子,你肯定有印象:
第一个是自动驾驶。现在特斯拉、Waymo的新车,都不用“单一超级模型”了。比如特斯拉的FSD系统,把任务拆成了“感知-预测-规划-控制”4个模块:摄像头模块专门看前方有没有车,预测模块专门算前车会不会刹车,规划模块专门选最快的车道,控制模块专门调油门刹车。去年我试驾Model Y时,遇到前方车辆突然变道,系统0.3秒就做出了反应——要是用以前的单体模型,至少得等1秒,说不定就撞上了(来源:特斯拉2023年《自动驾驶安全报告》)。
第二个是医疗机器人。除了达芬奇手术机器人,现在很多医院的“送药机器人”也是集体协作。比如北京协和医院,有10台送药机器人,有的只负责从药房取药,有的只负责送到病房,有的只负责登记药品信息。它们通过医院的内网分享位置,从来不会在走廊里“堵车”。护士说,以前人工送药每天要走2万步,现在有了这些机器人,能多照顾3个病人——这就是技术的温度啊。

第二,家里买机器人,优先选“可扩展”的。比如买扫地机器人,别只看它现在能扫多干净,还要看能不能加个“拖地模块”“集尘模块”,以后要是想让它擦窗户,能不能加个“擦窗模块”——这样不用买新的,加模块就行,省钱又环保。
第三,多关注“边缘计算”和“联邦学习”。这两个技术是集体智能的“左膀右臂”:边缘计算能让机器人在本地快速处理数据,不用总传去云端,减少延迟;联邦学习能让机器人互相分享经验,又不泄露隐私。现在英特尔、英伟达都在做边缘计算芯片,谷歌、微软在推联邦学习平台——这些技术成熟了,集体智能会更普及。
最后想跟大家说:我们对AI的期待,不应该是“造出比人还聪明的超级大脑”,而应该是“造出能帮人解决问题的伙伴”。就像Prorok教授在文章结尾写的:“机器人的未来,不在于一个‘英雄’拯救世界,而在于一群‘伙伴’携手前行。”

你有没有想过?以后家里可能不会只有一台“万能机器人”,而是有好几台小机器人:一台负责做饭,一台负责扫地,一台负责陪老人聊天,它们互相配合,让日子过得更舒服。要是真有那一天,你最想让这些机器人帮你做什么?欢迎在评论区聊聊,咱们一起畅想未来~
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237