Беспилотники научат понимать язык жестов

Причудливые жесты могут означать разные команды: "заглушить двигатель", "повернуть к заправочному узлу", "открыть отсек вооружения".
Каждый хоть раз видел, как члены команды авианосца отдают сигналы пилотам военных самолётов. Люди хорошо понимают друг друга. Однако армии всего мира постепенно обзаводятся беспилотниками. По этой причине учёные из MIT учат летательные аппараты правильно интерпретировать язык жестов человека.

Каждый хоть раз видел, как члены команды авианосца отдают сигналы пилотам военных самолётов. Люди хорошо понимают друг друга. Однако армии всего мира постепенно обзаводятся беспилотниками. По этой причине учёные из Массачусетского технологического института (MIT) учат летательные аппараты правильно интерпретировать язык жестов человека.

Беспилотные аппараты способны самостоятельно садится на палубу авианосцев, однако последующая рулёжка самолёта требует понимания команд человека.

Инженеры MIT поделили разработку на две части. Сначала они научили программное обеспечение вычленять позу тела человека из общей "шумной" картинки. Затем необходимо было научить программу выделять отдельные жесты из серии движений человека.

Поначалу учёные "скормили" компьютеру видеозаписи со стереоскопической камеры, которая снимала реальных членов экипажа авианосца, работающих на взлётно-посадочных полосах. В общей сложности программе нужно было распознать 24 специфических жеста.

Так как разработки ведутся давно, устройства, подобные Microsoft Kinect, не использовались. Систему научили находить положение локтей и запястий командующего, определять открыты ли ладони или кисти сжаты в кулаки, подняты ли большие пальцы.

Чтобы разделить движения члена команды на последовательность отдельных действий, программа делит запись на отдельные фрагменты длительностью три секунды (порядка 60 кадров).

Конечно, каждый жест не обязательно должен умещаться в эти временные отрезки, поэтому система берёт накладывающиеся друг на друга интервалы. Конец предыдущего отрезка записи является началом следующего.

Определяя позу отдающего команды, программное обеспечение анализирует, насколько картинка соответствует 24 известным ей жестам. Затем просчитывается вереница нескольких поз и, наконец, вся последовательность движений.

По сообщению разработчиков, сейчас точность определения жестов составляет 76%. Команда MIT работает над улучшением алгоритмов и полагает, что показатели удастся повысить. Тем временем, в журнале ACM Transactions on Interactive Intelligent Systems будут опубликованы промежуточные результаты работы.

Инженеры MIT не единственные учёные, заинтересованные в обучении беспилотников, пишет New Scientist. В 2009 году компания Boeing оформляла патент, который описывал идею управления при помощи жестов роем летательных аппаратов