Сила мысли и жесты: управление роботами становится ещё более интуитивным

Команда инженеров MIT опубликовала новое видео, демонстрирующее серьёзные достижения интерфейса мозг-компьютер.

Команда инженеров MIT опубликовала новое видео, демонстрирующее серьёзные достижения интерфейса мозг-компьютер.
Фото Joseph DelPreto/MIT CSAIL.

Обывателю может показаться, что заставить робота делать что-либо проще простого. Однако это совсем не так. Обычно автономную машину нужно запрограммировать либо на определённый набор действий, либо на понимание человеческого языка. В обоих случаях присутствует некоторый процент ошибочных действий, которые крайне нежелательны в реальном производственном процессе.

В 2017 году Инженеры Массачусетского технологического института (MIT) во главе с Даниэлой Рус (Daniela Rus ) представили интерфейс, который позволяет живому человеку в режиме реального времени останавливать действия робота в случае ошибки.

На этот раз та же команда исследователей смогла шагнуть ещё дальше и разработала технологию управления роботом с помощью силы мысли и жестов. Как и в прошлый раз, инженеры использовали в своей работе многообещающую машину бостонской компании Rethink Robotics по имени "Бакстер" (Baxter). Новый интерфейс планируют представить на предстоящей конференции по робототехнике в Питтсбурге (Robotics: Science and Systems).

На данном этапе учёные снова поставили себе целью исправлять ошибки в запрограммированных действиях робота прямо по ходу выполнения им определённой задачи. А теперь отличные новости для тех, кто готовится к неминуемому восстанию машин: на этот раз исправление ошибок также берёт на себя человек, а не программное обеспечение. На сайте института разработчики опубликовали видео, в котором "Бакстер" должен перемещать дрель между тремя целями на специальной панели.

Напомним, что в системе мозг-компьютер мозговая и мышечная активность человека служит одним из потоков данных, который обрабатывается в реальном времени. Деятельность мозга считывается с помощью классической электроэнцефалографии (ЭЭГ), а движение руки — электромиографии (ЭМГ). Когда оператор замечает ошибку робота, интерфейс воспринимает это как команду остановиться, после чего человек жестом указывает правильную цель, а машина исправляется.

 

В пресс-релизе MIT авторы работы отмечают, что в большинстве систем-предшественников компьютер мог распознавать сигналы мозга только тогда, когда люди "думали" строго определённым образом. Например, оператору приходилось параллельно с мысленными командами переводить взгляд между световыми дисплеями, которые имели отношение к выполнению роботом различных задач.

Сейчас же Рус и её команда используют сигналы мозга, которые возникают, когда человек видит ошибку. Они так и называются "потенциалы ошибки". Но если в прошлой работе их восприятие было необходимо настраивать под каждого конкретного человека, то уже сейчас система успешно работает с операторами, которых никогда раньше не встречала.

"Что отличает этот подход, так это то, что нет необходимости обучать пользователей мыслить предписанным образом, — рассказывает один из соавторов работы Джозеф ДельПрето (Joseph DelPreto). – Машина приспосабливается к вам, а не наоборот".

Работа по дальнейшему совершенствованию системы идёт полным ходом, и уже сейчас кроме производственного приложения инженеры видят потенциал своего интерфейса в работе с пожилыми людьми, а также пациентами, страдающими языковыми расстройствами, и теми, чья подвижность ограничена.

"Мы хотели бы уйти от мира, где люди вынуждены адаптироваться к ограничениям машин, – добавляет Рус.- Наш подход показывает реальную возможность разработки роботизированных систем, которые являются более естественным и интуитивным расширением человеческих возможностей".

Отметим, что разработка интерфейсов мозг-компьютер является одним из передовых направлений современной робототехники. А с новостями о самых последних достижениях области можно ознакомиться, заглянув в специальный раздел проекта "Вести.Наука" (nauka.vesti.ru).