前华为90后,又融资近亿:教机器人卖萌
你可能会奇怪:一台不会洗碗、不会劳动的人形机器人,凭什么能融资近亿?但这件事,近期就是发生了。
今年春天,上海AWE展上,青心意创创始人牛腾昦看到一个细节。
一个小女孩在一台裹着毛绒外皮的小机器人面前,蹲了四十分钟。最后被妈妈拉走时,还一步三回头。
这台机器人叫Amoo,来自青心意创。它不会洗碗,不会端茶,也不会搬箱子。它做的事情很简单:眨眼、转头、蹦跶、用肢体动作回应人。
但正是这类看起来“不干活”的机器人,让牛腾昦越来越确定一件事:具身智能进入家庭的第一站,可能不是劳动,而是陪伴。
过去两年,大多数机器人公司,都在卷“能不能干活”:谁的手更灵巧,谁的动作更复杂,谁能进工厂、进仓库、进服务场景。
青心意创选择了另一条路:先让机器人像一个“有生命感的角色”,进入真实家庭和真实生活。
最近,青心意创完成近亿元融资,由厚雪资本与天际资本联合领投,老股东乐朴资本跟投。自2023年11月成立以来,它累计融资三轮。
铅笔道最近专访青心意创创始人牛腾昦,部分精华如下:
1、机器人进家庭,最适合用来干什么?
答:不是劳动,而是提供情绪价值。
2、陪伴机器人,第一个挑战是啥?
答:动作一顿一顿,不流畅。
3、陪伴机器人,怎么打动用户?
答:不靠说话,靠肢体语言。
4、哪些产品,会快速被淘汰?
答:差不多型、套壳型、用完就扔型。
读完本文,您会收获一个认知:AI陪伴机器人,哪些是机会,哪些是大坑?
机器人进家庭第一关
我是90后,之前在剑桥拿到博士学位,曾在华为自动驾驶核心团队任职。
很多人把人形机器人看作下一代智能手机、新能源车。
虽不算夸张,但漏了一个前提:手机和车,是大家本来就想要,它们才出现的。机器人呢?大家到底需要它干嘛?
今天,大多数公司都在拼谁的手更巧、动作更复杂、控制更准。这条路没错,但我一直在想另一个问题:
有没有一种场景,不用那么高的精度,也能让机器人在真实世界里用起来?
有的,答案就是情绪交互。
机器人如果用来干活,容错率会很低。比如拿杯子,一失败杯子就碎了。但如果用来提供情绪价值,最多就是“没那么可爱”,不会带给用户损失。
这样一来,一直困扰行业的“数据”难题,也解开了。因为提供情绪价值,不需要那么多数据,它还能自己生产数据(能进入家庭生活)。
自动驾驶为啥能越做越好?因为车的市场大,车在路上跑,自然就采到了大量真实路况数据。
但机器人没有那么多天然数据,没有那么多机器人被人买回家。数据只能靠人专门去采,成本高得吓人。
但如果一台机器人能靠“情绪交互”进到家里,那就不一样了。
它每天跟用户说话、做表情、动来动去,时间长了,它会记住用户说了什么、什么表情、怎么反应的。这些"记得",让它用真实的相处,来训练自己,从而越来越能接住用户的情绪。
这样一来,“机器人更懂你更聪明”这件事,在相处中就自然发生了。
最近行业里越来越多人开始提“进家”、“情绪交互”等概念,我们一年半前(2024年底)就开始做了,那时候还没多少人信。
第一个坎:动作卡顿
当然,现在机器人进家庭,还有些现实问题,比如行业老毛病:动作一顿一顿的。
人的动作天然是连贯、丝滑的。在party上,你手舞足蹈,突然有人叫你,你会很自然地转头、停下来,根本不需要先把胳膊放回原位。
但市面上大多数机器人,都是一个动作做完,停一下,再做下一个。
为什么?因为大家习惯的做法是:每个动作配一个单独的“开关”。想换动作,得先关掉上一个,再开下一个。
比如手正举着杯子,得先放下来,才能做别的。
这种“先复位、再继续”的方式,在工厂里没问题。生产线上的机械臂不用跟人聊天,不用看人的表情。但要让机器人进到家里,跟人互动,就别扭了。
在做情绪交互的时候,我们最先撞上的也是这个问题。
我们想让机器人看起来有“活气”,会开心、会好奇、会转头看你。但一开始试下来,动作一顿一顿的,就像个电量不足的玩具。
这个问题困扰行业很久。
理想的做法是,重新设计整个控制系统:用一个“总开关”同时管几十个动作,让模型自己学会一组动作,并学会怎么在不同动作之间平滑地切换。
这套构想我们先在Orca上跑通,验证可行后,又迭代出情绪更丰富、更流畅的“情绪步态大模型”。
有了这个底座,再叠加眼神、语音等多模态,Amoo灵动的情绪交互,就自然生长出来了。
机器人怎么打动人?肢体语言
如果今后机器人要进家庭,活人感很重要,但很多人可能没意识到。
今年三月中旬,我们带着机器人“Amoo”去参加上海AWE展会。有个小女孩抱着机器人四十分钟不撒手,最后是被她妈硬拽走的。
后来我们发现,类似的场景在养老院、特殊教育学校,还有独居年轻人的家里,也经常出现。
这些人不在乎机器人能不能扫地、会不会做饭。他们在乎的是:它有表情吗?它会因为开心就蹦跶两下吗?它会因为搞不懂你在干嘛就挠挠头吗?
我就想:人为什么会对一个不会干活的机器产生感情?
后来翻了不少心理学的书,发现一个经典结论:人和人聊天,只有7%的信息是靠语言,38%靠语音语调,剩下55%全靠肢体动作。
这就是为什么人可以和猫狗产生很深的感情。
把这个结论放到具身智能行业,就会发现一个问题:很多做情绪交互机器人的公司,把重点全放在“说话”上,觉得机器人能聊天就够了。
但真正打动人心的,往往不是语言,而是那些无声的东西——动作、表情、身体姿态。
比如哆啦A梦、帕丁顿熊、玩具总动员里的角色,它们打动你的地方,是它们有“活物的感觉”:会开心、难过、好奇、害怕。不用说话,你看一眼就懂。
因此,要做情绪交互机器人,技术重点不能只放在“大脑”上——让它更聪明、更能聊——还得放在“身体”上。
我们先让语义层和物理层匹配,让机器人的眼神、声音和肢体动作能协同,然后让它在拟真场景里反复试验——能用动作表达情绪、流畅地切换状态,最终让你觉得它是“活的”、有温度的。
为了实现这个目标,从硬件到算法,很多东西都得推倒重来。
比如为了给机器人穿上毛绒外衣,我们既要保留动作的灵动感,又不能影响传感器精度,几乎没有现成方案可参考。
怎么办?我们前前后后找了六七百家供应商,折腾了大半年,最后一家团队配合我们从头摸索,才真正搞定。
三类产品面临淘汰
现在都在说,2026年AI陪伴行业会大洗牌。我认为有三类公司最危险:
第一类,“套壳型”。大模型接个简单硬件,赶紧出产品。短期能靠外形吸引眼球,但没有自己的技术,华强北分分钟给你复制出来。
第二类,“差不多型”。 桌面机器人、轮式机器人,你买A、买B、买C,用起来都差不多。那就是个AI硬件快消品,新鲜劲儿一过就完了。
第三类,“玩两天就扔”型。 用户买回去,没有持续使用,就没有数据,也没法迭代升级。没有粘性。
能活下来的公司,得有自己的技术、能跑通的数据循环、真正懂用户。核心就一点——谁先让足够多的机器人进到家庭,谁就有燃料去训练下一代模型。这也是我们正在探索的道路。
相比验证市场需求,落地反而容易。在中国,硬件不怕抄。只要下游需求起来,成本很快就能打下来。哪怕是小型的关节模组,现在市面上没有现成的,但只要需求明确,国内供应商很快就能跟上。
今年年底到明年年初,情绪交互机器人能大规模进入家庭。
我们希望产品在短期实现“高质量陪伴”,随着规模做大、供应链往下走,成本大幅下降,慢慢变成“大众工具”。
机器人可能还不会帮你洗碗,但它正在学会另一件事——怎么成为你生活里的一部分。
本文不构成任何投资建议。
本文来自微信公众号 “铅笔道”(ID:pencilnews),作者:吴欣晓,36氪经授权发布。















