From 9a43cb30e3051fe9ffefe8d117fddd078bf7f946 Mon Sep 17 00:00:00 2001
From: Adina Yakefu <129555487+adeenayakup@users.noreply.github.com>
Date: Wed, 4 Jun 2025 15:01:50 +0200
Subject: [PATCH 1/2] Update _blog.yml
---
zh/_blog.yml | 15 ++++++++++++++-
1 file changed, 14 insertions(+), 1 deletion(-)
diff --git a/zh/_blog.yml b/zh/_blog.yml
index 8c6b873f43..4680e8cc4e 100644
--- a/zh/_blog.yml
+++ b/zh/_blog.yml
@@ -2275,4 +2275,17 @@
- vision
- multimodal
- community
- - research
\ No newline at end of file
+ - research
+
+- local: smolvla
+ title: "SmolVLA:让机器人更懂'看听说做'的轻量化解决方案"
+ author: danaaubakirova
+ thumbnail: /blog/assets/smolvla/SmolVLA_thumbnail.png
+ date: Jun 3, 2025
+ tags:
+ - smolvla
+ - lerobot
+ - robotics
+ - open-source
+ - models
+ - community
From 7b54d7ade321925a12ccab693ff431dcbb11d205 Mon Sep 17 00:00:00 2001
From: Adina Yakefu <129555487+adeenayakup@users.noreply.github.com>
Date: Wed, 4 Jun 2025 16:21:12 +0200
Subject: [PATCH 2/2] Create smolvla.md
---
zh/smolvla.md | 313 ++++++++++++++++++++++++++++++++++++++++++++++++++
1 file changed, 313 insertions(+)
create mode 100644 zh/smolvla.md
diff --git a/zh/smolvla.md b/zh/smolvla.md
new file mode 100644
index 0000000000..3a362fe51b
--- /dev/null
+++ b/zh/smolvla.md
@@ -0,0 +1,313 @@
+---
+title: "SmolVLA: Efficient Vision-Language-Action Model trained on Lerobot Community Data"
+thumbnail: /blog/assets/smolvla/SmolVLA_thumbnail.png
+authors:
+- user: danaaubakirova
+- user: andito
+- user: merve
+- user: ariG23498
+- user: fracapuano
+- user: loubnabnl
+- user: pcuenq
+- user: mshukor
+- user: cadene
+translator:
+- user: AdinaY
+---
+
+### SmolVLA:让机器人更懂'看听说做'的轻量化解决方案
+
+## 🧭 TL;DR
+
+今天,我们介绍了[SmolVLA](https://huggingface.co/lerobot/smolvla_base),这是一个轻量级(450M参数)的开源视觉-语言-动作(VLA)模型,专为机器人领域设计,并且可以在消费级硬件上运行。
+
+* 仅使用开源社区共享的数据集进行预训练,数据集标签为[lerobot](https://huggingface.co/datasets?other=lerobot&sort=trending)。
+* SmolVLA-450M的表现优于许多更大的 VLA 模型,并且在仿真任务(LIBERO,Meta-World)和实际任务([SO100, SO101](https://github.com/TheRobotStudio/SO-ARM100))上超过了强基线模型,如[ACT](https://huggingface.co/papers/2401.02117)。
+* 支持*异步推理*,可提供**30% 更快的响应**和**2 倍的任务吞吐量**。
+
+**相关链接**:
+
+* 用于训练和评估 SO-100/101 的硬件:[https://github.com/TheRobotStudio/SO-ARM100](https://github.com/TheRobotStudio/SO-ARM100)
+* 基础模型:[https://huggingface.co/lerobot/smolvla\_base](https://huggingface.co/lerobot/smolvla_base)
+* 论文:[https://huggingface.co/papers/2506.01844](https://huggingface.co/papers/2506.01844)
+
+## 📚 目录
+
+* [🧭 TL;DR](#tl-dr)
+* [📖 介绍](#introduction)
+* [🤖 了解SmolVLA](#meet-smolvla)
+* [🚀 如何使用SmolVLA?](#-how-to-use-smolvla)
+
+ * [安装](#install)
+ * [微调预训练模型](#finetune-the-pretrained-model)
+ * [从头训练](#train-from-scratch)
+* [🧠 方法](#method)
+
+ * [主要架构](#main-architecture)
+
+ * [视觉-语言模型(VLM)](#vision-language-model-vlm)
+ * [动作专家:流匹配变换器](#action-expert-flow-matching-transformer)
+ * [高效性和稳健性的设计选择](#design-choices-for-efficiency-and-robustness)
+
+ * [视觉标记减少](#visual-token-reduction)
+ * [通过跳过层来加速推理](#faster-inference-via-layer-skipping)
+ * [交替交叉自注意力](#interleaved-cross-and-self-attention)
+ * [异步推理](#asynchronous-inference)
+* [📦 社区数据集](#community-datasets)
+
+ * [改进任务标注](#improving-task-annotations)
+ * [标准化摄像头视角](#standardizing-camera-views)
+* [📊 结果](#results)
+* [✅ 结论](#conclusion)
+* [📣 行动号召](#call-to-action)
+
+## 介绍
+
+在过去的几年里,Transformers 技术推动了人工智能的显著进展,从能够进行类人推理的语言模型到理解图像和文本的多模态系统。然而,在实际的机器人领域,进展则相对较慢。机器人仍然难以在各种物体、环境和任务之间进行有效的泛化。这一有限的进展源于 **缺乏高质量、多样化的数据**,以及缺乏能够 **像人类一样在物理世界中进行推理和行动** 的模型。
+
+为应对这些挑战,近期的研究开始转向 **视觉-语言-动作(VLA)模型**,旨在将感知、语言理解和动作预测统一到一个架构中。VLA 模型通常以原始视觉观测和自然语言指令为输入,输出相应的机器人动作。尽管前景广阔,但大部分 VLA 的最新进展仍然被封闭在使用大规模私人数据集训练的专有模型背后,通常需要昂贵的硬件配置和大量的工程资源。因此,更广泛的机器人研究社区在复制和扩展这些模型时面临着重大的障碍。
+
+**SmolVLA** 填补了这一空白,提供了一个开源、高效的轻量级 VLA 模型,可以在 **仅使用公开可用数据集和消费级硬件** 的情况下进行训练。通过发布模型权重并使用非常经济的开源硬件,SmolVLA 旨在实现视觉-语言-动作模型的普及,并加速朝着通用机器人代理的研究进展。
+
+
+
+
+ 图 1:SmolVLA 在不同任务变体下的对比。从左到右: (1) 异步的拾取-放置立方体计数,(2) 同步的拾取-放置立方体计数,(3) 在扰动下的拾取-放置立方体计数,(4) 在真实世界 SO101 上的乐高积木拾取-放置任务泛化。
+
+
+## 认识 SmolVLA!
+
+**SmolVLA-450M** 是我们开源的、功能强大的轻量级视觉-语言-动作(VLA)模型。它具备以下特点:
+- 足够小,可以在 CPU 上运行,单个消费级 GPU 上训练,甚至可以在 MacBook 上运行!
+- 训练使用的是公开的、社区共享的机器人数据
+- 发布时附带完整的训练和推理方案
+- 可以在非常经济的硬件上进行测试和部署(如 SO-100、SO-101、LeKiwi 等)
+
+受到大语言模型(LLMs)训练范式的启发,SmolVLA 先在通用的操控数据上进行预训练,随后进行特定任务的后训练。在架构上,它将 Transformers 与 **流匹配解码器** 相结合,并通过以下设计选择优化速度和低延迟推理:
+
+* 跳过视觉模型的一半层,提升推理速度和减小模型尺寸
+* 交替使用自注意力和交叉注意力模块
+* 使用更少的视觉标记
+* 利用更小的预训练视觉-语言模型(VLM)
+
+尽管使用的训练样本不到 30k, 比其他 VLA 模型少了一个数量级, 但 SmolVLA **在仿真和真实世界中的表现** 与更大的模型相当,甚至超过它们。
+
+为了让实时机器人更加易用,我们引入了异步推理堆栈。该技术将机器人执行动作的方式与理解它们所看到和听到的内容分开。由于这种分离,机器人可以在快速变化的环境中更快速地响应。
+
+
+
+
+ 图 2:SmolVLA 以多个摄像头拍摄的 RGB 图像序列、机器人当前的传感运动状态以及自然语言指令为输入。VLM 将这些信息编码为上下文特征,这些特征为动作专家提供条件,生成连续的动作序列。
+
+
+## 🚀 如何使用 SmolVLA?
+
+SmolVLA 设计时考虑了易用性和集成性——无论您是要在自己的数据上进行微调,还是将其插入现有的机器人堆栈中,都非常方便。
+
+### 安装
+
+首先,安装所需的依赖项:
+
+```python
+git clone https://github.com/huggingface/lerobot.git
+cd lerobot
+pip install -e ".[smolvla]"
+```
+
+### 微调预训练模型
+使用我们预训练的 450M 模型 [`smolvla_base`](https://hf.co/lerobot/smolvla_base) 和 lerobot 训练框架进行微调:
+
+```python
+python lerobot/scripts/train.py \
+ --policy.path=lerobot/smolvla_base \
+ --dataset.repo_id=lerobot/svla_so100_stacking \
+ --batch_size=64 \
+ --steps=200000
+```
+
+### 从头开始训练
+如果你想基于架构(预训练的 VLM + 动作专家)进行训练,而不是从预训练的检查点开始:
+
+```python
+python lerobot/scripts/train.py \
+ --policy.type=smolvla \
+ --dataset.repo_id=lerobot/svla_so100_stacking \
+ --batch_size=64 \
+ --steps=200000
+```
+
+你还可以直接加载 `SmolVLAPolicy`:
+
+```python
+policy = SmolVLAPolicy.from_pretrained("lerobot/smolvla_base")
+```
+
+## 方法
+
+SmolVLA 不仅是一个轻量级但强大的模型,还是一种用于训练和评估通用机器人策略的方法。在这一部分,我们介绍了 SmolVLA 背后的 *模型架构* 和用于评估的 *异步推理* 设置,这一设置已被证明更具适应性,并能更快速地恢复。
+
+SmolVLA 由两个核心组件组成:一个处理多模态输入的 **视觉-语言模型(VLM)** 和一个输出机器人控制命令的 **动作专家**。下面,我们将分享 SmolVLA 架构的主要组件和异步推理的详细信息。更多细节可以在我们的 [技术报告](https://huggingface.co/papers/2506.01844) 中找到。
+
+### 主要架构
+
+#### 视觉-语言模型(VLM)
+
+我们使用 [SmolVLM2](https://huggingface.co/HuggingFaceTB/SmolVLM2-500M-Video-Instruct) 作为我们的 VLM 主干。它经过优化,能够处理多图像输入,并包含一个 SigLIP 视觉编码器和一个 [SmolLM2](https://huggingface.co/HuggingFaceTB/SmolLM2-1.7B-Instruct) 语言解码器。
+- **图像标记** 通过视觉编码器提取
+- **语言指令** 被标记化并直接输入解码器
+- **传感运动状态** 通过线性层投影到一个标记上,与语言模型的标记维度对齐
+
+解码器层处理连接的图像、语言和状态标记。得到的特征随后传递给动作专家。
+
+#### 动作专家:流匹配变换器
+
+SmolVLA 的 **动作专家** 是一个轻量Transformer(约1亿参数),它能基于视觉语言模型(VLM)的输出,生成未来机器人动作序列块(action chunks)。它是采用 **流匹配目标** 进行训练的,通过引导噪声样本回归真实数据分布来学习动作生成。与离散动作表示(例如通过标记化)强大但通常需要自回归解码、推理时速度较慢不同,流匹配允许 **直接、非自回归预测连续动作**,从而实现高精度的实时控制。
+
+更直观地说,在训练过程中,我们将随机噪声添加到机器人的真实动作序列中,并要求模型预测将其“修正”回正确轨迹的“修正向量”。这在动作空间上形成了一个平滑的向量场,帮助模型学习准确且稳定的控制策略。
+
+我们使用 Transfomer 架构实现这一目标,并采用 **交替注意力块**(见图 2),同时将其隐藏层大小减少到 **VLM 的 75%**,保持模型轻量化,便于部署。
+
+### 高效性和稳健性的设计选择
+
+将视觉-语言模型与动作预测模块结合起来,是近期 VLA 系统(如 Pi0、GR00T、Diffusion Policy)中的常见设计模式。我们在此过程中识别了几项架构选择,这些选择显著提高了系统的稳健性和性能。在 SmolVLA 中,我们应用了三项关键技术:**减少视觉标记的数量、跳过 VLM 中的高层**以及 **在动作专家中交替使用交叉注意力和自注意力层**。
+
+#### 视觉标记减少
+
+高分辨率图像有助于提高感知能力,但也可能显著减慢推理速度。为了找到平衡,**SmolVLA 在训练和推理过程中每帧限制视觉标记数量为 64**。例如,一个 512×512 的图像被压缩成仅 64 个标记,**而不是 1024 个**,使用 **PixelShuffle** 作为高效的重排技术。虽然底层的视觉-语言模型(VLM)最初使用图像平铺技术进行预训练,以获得更广泛的覆盖,但**SmolVLA 在运行时仅使用全局图像**,以保持推理的轻量化和快速性。
+
+#### 通过跳过层加速推理
+
+我们并不总是依赖于 VLM 的最终输出层,这一层成本高且有时效果不佳,我们选择使用 **中间层的特征**。先前的研究表明,早期的层通常能提供更好的下游任务表示。
+在 SmolVLA 中,动作专家只关注最多配置层 NN 的 VLM 特征进行训练,配置为**总层数的一半**。这**减少了 VLM 和动作专家的计算成本**,显著加速了推理,并且性能损失最小。
+
+#### 交替使用交叉注意力和自注意力
+
+在动作专家内部,注意力层交替进行:
+- **交叉注意力(CA)**,其中动作标记关注 VLM 的特征
+- **自注意力(SA)**,其中动作标记关注彼此(因果性地——只关注过去的标记)
+
+我们发现这种 **交替设计** 比仅使用完整的注意力块要轻量且更有效。仅依赖于 CA 或仅依赖于 SA 的模型,往往会牺牲平滑性或基础性。
+
+在 SmolVLA 中,CA 确保了动作能够很好地与感知和指令相匹配,而 SA 则提高了 **时间平滑性**,这对于现实世界中的控制尤其重要,因为抖动的预测可能会导致不安全或不稳定的行为。
+
+## 异步推理
+
+
+

+
图 3. 异步推理。异步推理堆栈的示意图。请注意,策略可以在远程服务器上运行,可能带有 GPU。
+
+
+现代视觉运动策略输出 **动作片段** 一系列需要执行的动作。有两种管理方式:
+- **同步(sync):** 机器人执行一个片段,然后暂停,等待下一个片段的计算。这种方式简单,但会造成延迟,机器人无法响应新的输入。
+- **异步(async):** 在执行当前片段时,机器人已经将最新的观察结果发送到 **策略服务器**(可能托管在 GPU 上)以获取下一个片段。这避免了空闲时间,并提高了反应速度。
+
+我们的异步堆栈将动作执行与片段预测解耦,从而提高了适应性,并完全消除了运行时的执行延迟。它依赖以下关键机制:
+
+- **1. 早期触发:** 当队列长度低于某个阈值(例如,70%)时,我们会将观察结果发送到 **策略服务器**,请求生成新的动作片段。
+- **2. 解耦线程:** 控制循环持续执行 → 推理并行进行(非阻塞)。
+- **3. 片段融合:** 通过简单的合并规则将连续片段的重叠动作拼接在一起,以避免抖动。
+
+我们非常激动能发布异步推理,因为它保证了更强的适应性和更好的性能,而无需更改模型。简而言之,异步推理通过重叠执行和远程预测保持机器人响应迅速。
+
+## 社区数据集
+
+虽然视觉和语言模型依赖像 LAION、ImageNet 和 Common Crawl 这样的网络规模数据集,但机器人学缺乏类似的资源。没有“机器人互联网”。相反,数据在不同类型的机器人、传感器、控制方案和格式之间是碎片化的——形成了不相连的“数据岛”。在我们的 [上一篇文章](https://huggingface.co/blog/lerobot-datasets) 中,我们探讨了如何通过开放和协作的努力来解决这种碎片化问题。正如 ImageNet 通过提供一个大而多样的基准来促进计算机视觉的突破,我们相信 **社区驱动的机器人数据集** 可以在通用机器人策略中发挥相同的基础性作用。
+
+**SmolVLA 是我们朝着这个愿景迈出的第一步**:它在精心挑选的公开可用、社区贡献的数据集上进行预训练,这些数据集旨在反映现实世界中的变化。我们并不是单纯地优化数据集的大小,而是关注多样性:各种行为、摄像头视角和体现方式,促进转移和泛化。
+
+SmolVLA 使用的所有训练数据来自 **LeRobot Community Datasets**,这是在 Hugging Face Hub 上通过 `lerobot` 标签共享的机器人数据集。数据集来自各种不同的环境,从实验室到客厅,这些数据集代表了一种开放、去中心化的努力,旨在扩展现实世界的机器人数据。
+
+
+
+
+ 图 4. 社区数据集的概览。特别感谢 Ville Kuosmanen 创建了该可视化图像。
+与学术基准不同,社区数据集自然地捕捉到了杂乱、现实的互动:多变的光照、不完美的演示、非常规物体和异质的控制方案。这种多样性将对学习稳健、通用的表示非常有用。
+
+
+我们使用了由 [Alexandre Chapin](https://huggingface.co/Beegbrain) 和 [Ville Kuosmanen](https://huggingface.co/villekuosmanen) 创建的自定义 [过滤工具](https://huggingface.co/spaces/Beegbrain/FilterLeRobotData),根据帧数、视觉质量和任务覆盖范围来选择数据集。在经过细致的人工审核后(特别感谢 Marina Barannikov),我们策划了一个由 **487 个高质量数据集** 组成的集合,聚焦于 **SO100 机器人臂**,并统一标准为 **30 FPS**。这产生了大约 **1000 万帧**——至少是 **其他流行基准数据集的一个数量级小**,但其多样性显著更高。
+
+### 改进任务标注
+
+社区数据集中的一个常见问题是任务描述的噪声或缺失。许多样本缺少标注,或者包含像“task desc”或“Move”、“Pick”等模糊的标签。为了提高质量并标准化数据集之间的文本输入,我们使用了 [Qwen2.5-VL-3B-Instruct](https://huggingface.co/Qwen/Qwen2.5-3B-Instruct) 来生成简洁、面向动作的描述。
+
+给定样本帧和原始标签,模型被提示在 30 个字符以内重写指令,从动词开始(例如,“Pick”,“Place”,“Open”)。
+
+使用的提示语如下:
+
+```
+以下是当前的任务描述:{current_task}。生成一个非常简短、清晰且完整的一句话,描述机器人臂执行的动作(最多 30 个字符)。不要包含不必要的词语。
+简洁明了。
+以下是一些示例:拾取立方体并将其放入盒子,打开抽屉等等。
+直接以动词开始,如“Pick”、“Place”、“Open”等。
+与提供的示例类似,机器人臂执行的主要动作是什么?
+```
+
+### 标准化摄像头视角
+
+另一个挑战是摄像头命名不一致。一些数据集使用了清晰的名称,如 top 或 `wrist.right`,而其他一些则使用了模糊的标签,如 `images.laptop`,其含义有所不同。
+为了解决这个问题,我们手动检查了数据集,并将每个摄像头视角映射到标准化的方案:
+`OBS_IMAGE_1`: 从上往下的视角
+`OBS_IMAGE_2`: 腕部安装视角
+`OBS_IMAGE_3+`: 其他视角
+
+我们进一步隔离了社区数据集预训练和多任务微调的贡献。没有在 LeRobot 社区数据集上进行预训练,SmolVLA 在 SO100 上最初的成功率为 **51.7%**。在社区收集的数据上进行预训练后,性能跃升至 **78.3%**,提高了 **+26.6%**。多任务微调进一步提升了性能,甚至在低数据环境下也表现出强大的任务迁移能力。
+
+
+

+
表 1. 在社区数据集预训练和多任务微调上的影响。
+
+
+## 结果
+
+我们在仿真和真实世界的基准测试中评估了 SmolVLA,以测试其泛化能力、效率和稳健性。尽管 SmolVLA 是紧凑的,但它在性能上始终超越或与显著更大的模型和基于更大规模机器人数据预训练的策略相匹配。
+
+
+

+
表 2. SmolVLA 在仿真基准测试中的表现。
+
+
+
+

+
表 3. SmolVLA 与基线在真实世界任务(SO100)上的对比。
+
+
+在真实世界环境中,SmolVLA 在两个不同的任务套件上进行了评估:SO100 和 SO101。这些任务包括拾取-放置、堆叠和排序,涵盖了分布内和分布外的物体配置。
+在 SO101 上,SmolVLA 还在泛化能力上表现出色:
+
+
+

+
表 4. SmolVLA 在新体现(SO101)上的泛化能力与 ACT 的对比。
+
+
+最后,我们在同步和异步推理模式下评估了 SmolVLA。异步推理将动作执行与模型推理解耦,使得策略在机器人移动时也能作出反应。
+- 两种模式的任务成功率相似(约 78%),但异步推理:
+ * 使任务完成时间 **快约 30%**(9.7 秒 vs 13.75 秒)
+ * 在固定时间设置下 **完成任务数量翻倍**(19 个 vs 9 个立方体)
+
+这使得在动态环境中,尤其是在物体变化或外部干扰的情况下,SmolVLA 具有更高的响应性和稳健的真实世界表现。
+
+
+

+
图 4. 真实世界任务中的异步推理与同步推理。
+(a) 任务成功率(%),(b) 平均完成时间(秒),以及 (c) 在固定时间窗口内完成的任务数量。
+
+
+## 结论
+
+SmolVLA 是我们为构建开放、高效、可重复的机器人基础模型所做的贡献。尽管它体积小,但在一系列真实世界和仿真任务中,它的表现与更大、更专有的模型相当,甚至超越了它们。通过完全依赖社区贡献的数据集和经济实惠的硬件,SmolVLA 降低了研究人员、教育工作者和爱好者的入门门槛。
+但这仅仅是开始。SmolVLA 不仅仅是一个模型——它是朝着可扩展、协作机器人方向发展的开源运动的一部分。
+
+## 行动号召:
+
+- 🔧 **试试看!** 在自己的数据上微调 SmolVLA,将其部署到经济实惠的硬件上,或者与当前的堆栈进行基准测试,并在 Twitter/LinkedIn 上分享。
+- 🤖 **上传数据集!** 有机器人吗?使用 lerobot 格式收集并共享你的数据。帮助扩展支持 SmolVLA 的社区数据集。
+- 💬 **加入博客讨论。** 在下面的讨论中留下你的问题、想法或反馈。我们很乐意帮助集成、训练或部署。
+- 📊 **贡献。** 改进数据集,报告问题,提出新想法。每一份贡献都很有帮助。
+- 🌍 **传播这个消息。** 与其他对高效、实时机器人策略感兴趣的研究人员、开发人员或教育者分享 SmolVLA。
+- 📫 **保持联系:** 关注 [LeRobot 组织](https://huggingface.co/lerobot) 和 [Discord 服务器](https://discord.com/invite/ttk5CV6tUw),获取更新、教程和新版本。
+
+我们一起可以让现实世界的机器人性能更强、成本更低、 开放度更高。✨
+
+
+
+