«Это наша первая модель Vision-Language-Action (VLA), которая поможет сделать роботов более быстрыми, высокоэффективными и адаптируемыми к новым задачам и средам — без необходимости постоянного подключения к интернету», — подчеркнули в ИИ-подразделении Google.
Архитектор проекта «Робономика» Сергей Лоншаков в комментарии для ForkLog подчеркнул, что VLA — передовое в области гуманоидной робототехники решение.
«Figure на том же типе моделей сейчас показывает свои коллаборационные производственные сценарии», — отметил он.
Локальное размещение модели на устройстве Лоншаков назвал правильным решением, которое соответствует современным трендам.
«[…] Называется высокоуровневый планировщик задач — он раньше был только в облаках, когда применялся исключительно RL для обучения простой модели действию в симуляции, и после загружалась готовая последовательность операций в робота. Сейчас робототехники пробуют делать seamless-модели, где на этапе планирования нет процессов, останавливающих выполнение операций роботом при смене деятельности на другую. Если бот перестал крутить гайки на конвейере и пошел за новыми деталями, теперь никто не хочет ожидать смены "оснастки" в его голове», — добавил эксперт.
Новости | AI | YouTube