拿到了一束自变量机器人插的花,用时三分钟吧,没有想象中迅捷,但核心的点是视觉模型解决了对不规则物体的稳定操作,也无需遥控和编程,慢点,但它能搞定。

自变量发布了Wall-B大模型,能处理随机环境里的各种物件,具备部件级理解,譬如识别杯子的朝向、材质、形状、把手等等。另外还有力反馈系统,控制机械臂把握、拿捏的力度。

在理解和感知这个世界。

用了统一内存架构,这种架构在2026年成了高性能AI的关键技术,即CPU(中央处理器)、GPU(图形处理器)、NPU(神经网络处理器)共同享用同一块物理内存池,让整个系统的流转效率上升到新的高度,可以在本地运行参数更多、能力更强的模型。

自变量是一家爱攒现实世界数据的激进公司,它把实验室那种纯净环境完成的操作,看成甜水数据,更重视采集具身智能的牛奶数据,喜欢去真实家庭训练模型,带着产品经理、技术人员造访了上百家志愿者的家,看到过很整洁及很混乱的各种环境。

这些年,网上有一些帖子吐槽自变量机器人带着三个工作人员上门服务,“这得多浪费钱啊?”等等疑惑。这些就是对Wall-A到Wall-B的蝶变标注了。

对了,自变量CEO还宣布B轮拿到了小米战投。
5月25日正式入驻真实家庭。

我个人觉得,激动和吐槽都会发生。
“所有伟大的生命,都是从踉踉跄跄的第一步开始的。”
 
 
Back to Top