Microsoft совместно с двумя американскими университетами разработала систему управления компьютерной информацией при помощи жестов рук и пальцев в трехмерном пространстве.
Для того чтобы воспользоваться системой под названием g-speak, пользователю необходимо прикрепить к рукам специальные датчики, осуществляющие регистрацию биоэлектрической активности в мышцах, отвечающих за сгибание и разгибание пальцев, и мышцах предплечья. Сигналы с датчиков направляются в блок управления, подключенный к телу человека. Данный блок при помощи специального программного обеспечения распознает сигналы и посылает команды управления в интерфейс компьютера. Текущая версия системы включает шесть датчиков для снятия активности в кисти (спрятаны в специальные перчатки) и два – в предплечье (помещаются в специальный ремень, опоясанный вокруг руки). Программное обеспечение распознает три величины: амплитуду биоэлектрической активности, ее характер и сравнивает сигнал от одного датчика с сигналами, получаемыми с других датчиков в один и тот же момент времени.
Демонстрация системы проходила в небольшой комнате с изображением, проецируемым на стену. Надев перчатки, человек смог манипулировать предметами, изображенными на экране – двигать их в разные стороны, приближать и удалять, поворачивать, перекидывать с экрана на экран, управлять воспроизведением видео, например, выполнять перемотку, и так далее.
По словам ученых, система g-speak оптимизирована для управления большим объемом данных с высокой скоростью. Ученые показали, как пользователь посредством данной системы с легкостью осуществляет навигацию в трехмерной матрице элементов – таким образом, например, может быть организовано хранение файлов и папок. Кроме того, система поддерживает коллективную работу – управлять данными на одном экране могут два человека, просто находясь рядом друг с другом. Система в таком случае просто будет распознавать их жесты одновременно.
Конструктивная особенность системы заключается в том, что размещаемые на коже человека датчики не должны находиться в конкретных местах напротив конкретных мышц. То есть у одного и другого человека картина сигналов может сильно отличаться. Для этого ученые разработали алгоритм калибровки, при помощи которого сначала систему нужно научить, какие сигналы как интерпретировать. Во время калибровки пользователь выполняет заданные жесты, и система записывает полученные сигналы, ассоциируя их с теми или иными командами управления. После обучения система способна безошибочно распознавать большинство жестов в 85% случаях, а некоторые из них – в 90% случаях.
Авторы проекта уверены, что однажды подобные системы управления персональным компьютером станут незаменимы, как однажды стала незаменимой мышь. В настоящее время инженеры пытаются увеличить точность распознавания жестов и скорость работы системы. Помимо этого, разрабатываются беспроводные датчики и исследуются варианты их размещения в одежде человека для того, чтобы ему не нужно было прикреплять их к коже каждый раз. В будущем такая реализация позволит общаться с вычислительными системами на интуитивном уровне, что позволит экономить время.
Система уже работает, однако о возможности коммерческой реализации пока не сообщается.
http://www.daily.com.ua/articles/9/2009-11-100630.html