NASA будет использовать Oculus Rift и Kinect для управления космическими роботами
Национальное космическое агентство США (NASA) уже давно работает над созданием эффективных роботов, специализирующихся на работе в космосе. Этим вопросом занимается Лаборатория по изучению реактивного движения (Jet Propulsion Laboratory), она же разрабатывает инновационные системы управления роботами.
При помощи контроллера Leap Motion сотрудники лаборатории разработали систему управления марсоходами. Одну из ключевых ролей в разработке сыграли прототипы шлемов виртуальной реальности Oculus Rift и Virtuix Omni. Позже, заполучив в свое распоряжение новый высокоточный контроллер Kinect 2, лаборатория JPL успешно создала новейшую систему дистанционного управления роботизированными системами.
В конце ноября 2013 года НАСА также получило программный комплект для разработчиков Kinect 2. Всего несколько дней потребовалось ведущим специалистам агентства, чтобы совместить пакет с функциями очков виртуальной реальности Oculus Rift и создать предварительную версию системы управления рукой-манипулятором. «Нам впервые в истории удалось полностью добиться управления движениями роботизированной руки с помощью двух прогрессивных технологий, рассчитанных на потребительский класс» – рассказал инженер отдела Human Interfaces Алекс Мензис, – «Кроме того, мы сделали все таким образом, что оператор сможет полностью погрузиться в виртуальный мир, по сути став ее неотъемлемой составляющей. Оператор может наблюдать окружающую виртуальную среду с разных точек и управлять виртуальным телом, производя самые различные движения».
Главной проблемой при эксплуатации такого рода систем является время, которое нужно сигналу для того, чтобы добраться до центра управления и вернуться обратно. В условиях космоса расстояния огромны, и эта задержка становится более чем ощутимой. Скажем, время пути сигнала на от Земли к Луне составляет две секунды, а это уже вызывает затруднения у оператора, руководящего движениями робота. В данном случае разработчикам удалось выйти из ситуации, прибегнув к небольшой уловке. Оператор получал изображение не реального положения манипулятора робота, а того, которое он займет через время задержки. «При определенных выработанных навыках оператор сможет проводить все манипуляции совершенно естественно, так как виртуальная визуализация будет выполнять все действия полностью синхронно с ним», – рассказывает Алекс Мензис, – «реальные движения робота всегда идут с опозданием, но в целом способ «забегания вперед» весьма действенен».
В любом случае, исследовательской целью является реализация способа управления не одним манипулятором, а всеми системами робота в целом. В ближайшее время сотрудники лаборатории планируют адаптировать технологию к управлению таким классом устройств, как Robonaut 2. Последний, кстати, в данный момент активно применяется на борту Международной космической станции. «Мы стремимся настолько расширить и усовершенствовать функции нашей системы, чтобы операторы на земле или космонавты на орбите могли с ее помощью управлять Robonaut 2», – объясняет Мензис, – «Существует целый ряд видов работ, которые слишком опасны для людей. А благодаря такой системе, которую мы хотим создать, такой тип работ можно будет успешно выполнять не опасаясь за жизнь и здоровье астронавтов».