Робот научился имитировать действие человека после одного просмотра видео

Обучение робота конкретному действию стало возможно после единственной демонстрации видео.

Обучение робота конкретному действию стало возможно после единственной демонстрации видео.
Фото Tianhe Yu and Chelsea Finn.

Команда программистов из Калифорнийского университета в Беркли нашла способ заставить робота повторять действия, которые ему показали на экране всего лишь один раз.

Первые индустриальные механизмы были созданы для выполнения одного конкретного действия, такого как перемещение изделия или нанесение этикетки. Следующим этапом роботизации производства стали машины, способные выполнять несколько функций. Обычно для этого создаётся компьютерная программа, в которой чётко прописано, что и как необходимо делать. Самые современные роботы, например, "Бакстер" от компании Rethink Robotics, уже не требуют постоянного перепрограммирования для освоения новых функций. Они запоминают действия, предварительно выполненные под управлением оператора.

Но особенность настоящего интеллекта состоит в том, что люди и некоторые виды животных могут самостоятельно обучаться новым действиям, просто наблюдая за тем, как их выполняет кто-то другой. Да, благодаря мощному развитию технологий искусственного интеллекта, уже существуют машины, способные обучаться через наблюдение. Но им необходимо пройти через сотни и даже тысячи показательных действий, чтобы их ошибки в выполнении задач стали минимальными. Во всяком случае, так было до сих пор.

Результатом новой работы команды инженеров из Калифорнийского университета в Беркли стала техника, позволяющая научить робота имитировать конкретное действие после однократного просмотра видео. Созданный ими алгоритм под названием "модельно-агностическое метаобучение" позволяет машине в точности имитировать действия человека, которые демонстрируются на экране. Испытания проводились на исследовательском роботе PR2 от компании Willow Garage.

Главная сложность имитации состоит в том, что человек и механический манипулятор выглядят совершенно по-разному, и программа не может просто считывать движения плеча, суставов и пальцев и направлять эту информацию на аналогичные узлы машины. Поэтому ведущий автор исследования Тяньхэ Ю (Tianhe Yu) и его коллеги исходили из того, что робот должен искать взаимосвязь между движениями человека и перемещением окружающих объектов.

Для этого учёные объединили имитационное обучение с метаобучением, построенном на анализе решённых ранее задач и использовании лучших решений для достижения новых целей. В результате, наблюдая за тем, как человек двигает по столу предмет или берёт шар и помещает его в миску, робот в первую очередь определяет конечную задачу. Например, красный шар должен оказаться в синей миске, или банка с жёлтой крышкой должна быть передвинута в левую часть стола. Затем алгоритм подбирает оптимальный набор движений для достижения цели, и манипулятор с первого раза повторяет действие.

В ходе демонстрации новой технологии робот безошибочно передвигал нужные предметы и помещал шар в миску нужного цвета, даже если на столе присутствовала посуда разного цвета, которую хитрые испытатели периодически меняли местами.

Более подробно с работой можно ознакомиться, прочитав статью, препринт которой размещён на сайте arXiv.org.

Напомним также, что проект "Вести.Наука" (nauka.vesti.ru) внимательно следит за самыми многообещающими проектами в области робототехники и искусственного интеллекта и делится новостями со своими читателями.