Для любого летательного аппарата – и робота бесплотника в том числе – взлет и посадка остаются наиболее сложными «элементами». Особенно на ограниченном пространстве палубы морских авианосцев. Сегодня члены экипажа авианосца используют определенные жесты рук и положений тела, чтобы вести пилотов по палубе. Но количество беспилотных самолетов на борту авианосцев постоянно растет. Могут ли члены экипажа авианосца использовать те же самые жесты, чтобы вести по палубе и роботизированные самолеты?
Группа исследователей из Массачусетского технологического института (США) решили найти ответ на тот вопрос. Они разрабатывают систему подобную Kinect, которая может распознавать фигуры и положения рук в трехмерном пространстве. При этом для «слежения» за действиями членов команды используется только одна стерео камера, специально установленная на борту беспилотника. Специально разработанное для неё программное обеспечение позволяет распознавать каждый жест человека.
Принцип работы на первый взгляд прост. Камера «выхватывает» трехмерное изображение всех «живых» объектов на палубе и удаляет фон. Потом программа оценивает, в котором положении находятся человеческие тела и сравнивает их с «эталоном» – позой человека, подающего команды летчику. Таким образом, она отсеивает «лишних» и концентрируется на определенном члене экипажа. После этого программа аналогичным образом определяет расположение рук человека. Далее – положение ладоней и пальцев. После этого определяет конкретный жест – открытая ладонь, сжатый кулак или большой палец, указывающий вниз. Такими знаками пользуются для ведения самолета по палубе.
Однако пока самая большая проблема в разработке состоит в том, что программа не успевает зафиксировать и переработать изображения всех членов команды авианосца, которые попадают в поле её зрения на первом этапе. Бывает, что на палубе в нужное время оказывается слишком много людей. И все они движутся и по-своему жестикулируют. Внести в «память» роботизированного навигатора все человеческие позы и жесты просто невозможно – их тысячи. Исследователи выбрали около 60 наиболее распространенных положений тела человека с различными вариативными и точными совпадениями.
Во время последних тестовых испытаний программное обеспечение роботизированного навигатора правильно идентифицировало жесты с точностью до 76 %. Результат довольно внушительный, однако не достаточно хороший, чтобы управлять многомиллионными беспилотными самолетами на небольшой палубе авианосца посреди океана. Как-то «не экономно» будет, если роботизированный летательный аппарат ненавязчиво отправится за борт просто, потому что не распознал вовремя жестов «регулировщика».
Но работы продолжаются и исследователи надеются увеличить точность системы.