Четвероногого робота научили вставать с колен.
Образовач/nplus1.ruШвейцарские, немецкие и американские инженеры научили робота ANYmal ходить, бегать и восстанавливаться после падений, используя нейросетевой алгоритм, а не заданные вручную алгоритмы-контроллеры. Особенность работы также заключается в том, что сначала алгоритм обучался во время симуляции, а затем выученный навык удалось перенести на реального робота, рассказывают авторы статьи в Science Robotics.
Инженеры уже создали множество ходячих роботов разных конструкций, в том числе достаточно совершенных. К примеру, широко известны роботы компании Boston Dynamics, способные удерживаться на ногах после ударов. Однако помимо аппаратной составляющей не менее важна программная. И здесь пока существует явная проблема — обычно инженерам приходится разрабатывать алгоритмы-контроллеры самостоятельно, основываясь на поведении реальных ходячих животных или виртуальных моделей. Такой подход отнимает много времени, а также не гарантирует, что разработчики найдут оптимальную походку для имеющейся конструкции. Существуют работы, в которых инженеры использовали нейросеть для управления и сначала симулировали ее поведение в виртуальном мире, а затем переносили в реальный, но в них использовались роботы с простой конструкцией.
Группа инженеров под руководством Марко Хюттера (Marco Hutter) из Швейцарской высшей технической школы Цюриха использовала аналогичный подход, но применила его для гораздо более сложного по конструкции робота ANYmal. Он имеет четыре ноги, состоящие из двух сегментов. Всего в роботе установлено 12 электромоторов — по три на каждую ногу, два из которых сгибают ее, а один, установленный в основании, отклоняет всю ногу вбок относительно корпуса.
Исследователи применили двухступенчатый подход, при котором одна нейросеть отвечает за планирование движений сегментов в целом, а вторая получает эти движения и подбирает конкретные значения усилия для каждого электромотора. Обе сети имеют структуру многослойного перцептрона. Для их обучения различным движениям авторы использовали метод обучения с подкреплением, при котором алгоритм получает от виртуальной среды награду за выполняемые действия и благодаря этому постепенно учится оптимальным действиям. После обучения в виртуальной среде обученные нейросетевые модели загрузили в компьютер реального робота ANYmal.
Схема алгоритмов управления роботом
Благодаря новым алгоритмам инженерам удалось получить три основных результата. Во-первых, движения робота стали более стабильными и энергоэффективными. Во-вторых, максимальная скорость движения робота на 25 процентов выше, чем с применением других существующих алгоритмов для него. В-третьих, робот научился самостоятельно вставать на ноги из лежачего положения.
Хюттер и его коллеги давно занимаются экспериментами с роботом ANYmal, причем не только его программным обеспечением. К примеру, недавно они создали его модификацию, на концах ног которой закреплены колеса, приводимые в движение электродвигателями. Благодаря этому робот может переключаться между различными режимами движения и проходить по сложному рельефу эффективнее, чем аналогичные разработки.
Подробнее
Hybrid simulator in 2________ ifofque Actuator net | 32 sottsiqn nodes (000-00000) _______t 32 softssgr nodes (000-00000) f 32 softstgn nodes (000-00000) ♦ (0-0 0-0) velocity position history error history Policy net (OOP - OOP) position torget 128 t.tnh nodes (PPPPP-PPPPP) t__256 tsnh nodes W (PPPPP-PPPPP) . __________t___________N (p-p p-p p-p p-p p-p p-p) body pose body twist joint state ^^ory* 'action* command
Learning agile and dynamic motor skills for legged robots,Science & Technology,Science Robotics,Learning agile and dynamic motor skills for legged robots. Jemin Hwangbo et al (2019), Science Robotics https://doi.org/10.1126/scirobotics.aau5872 Legged robots pose one of the greatest challenges in robotics. Dynamic and agile maneuvers of animals cannot be imitated by existing methods that are crafted by humans. A compelling alternative is reinforcement learning, which requires minimal craftsmanship and promotes the natural evolution of a control policy. However, so far, reinforcement learning research for legged robots is mainly limited to simulation, and only few and comparably simple examples have been deployed on real systems. The primary reason is that training with real robots, particularly with dynamically balancing systems, is complicated and expensive. In the present work, we introduce a method for training a neural network policy in simulation and transferring it to a state-of-the-art legged system, thereby leveraging fast, automated, and cost-effective data generation schemes. The approach is applied to the ANYmal robot, a sophisticated medium-dog–sized quadrupedal system. Using policies trained in simulation, the quadrupedal machine achieves locomotion skills that go beyond what had been achieved with prior methods: ANYmal is capable of precisely and energy-efficiently following high-level body velocity commands, running faster than before, and recovering from falling even in complex configurations.
образовач,Робот,ученые,инженеры
Еще на тему
А можно такой же алгоритм для России ?
Wut
Лол, на реакторе только списка почетных говноедов не хватало.
Это же дрессировка, только не животного а компухтера!