Vision-language-action (VLA) model enabling zero-shot sim-to-real transfer for mobile manipulation tasks, trained entirely in simulation without real robot data, achieving 79.2% success on real-world DROID benchmarks outperforming baselines by 2x.
Fler avsnitt av Embodied AI 101
Visa alla avsnitt av Embodied AI 101Embodied AI 101 med Shaoqing Tan finns tillgänglig på flera plattformar. Informationen på denna sida kommer från offentliga podd-flöden.
