Естественный пользовательский интерфейс - Natural user interface - Wikipedia

В вычисление, а естественный пользовательский интерфейс, или же NUI, или же естественный интерфейс это пользовательский интерфейс который фактически невидим и остается невидимым, поскольку пользователь постоянно осваивает все более сложные взаимодействия. Слово «естественный» используется потому, что в большинстве компьютерных интерфейсов используются искусственные устройства управления, работу которых необходимо изучить.

NUI полагается на возможность пользователя быстро перейти от новичка к эксперту. Хотя интерфейс требует обучения, это обучение облегчается дизайном, который дает пользователю ощущение, что он мгновенно и постоянно добивается успеха. Таким образом, «естественный» относится к цели в пользовательском опыте - чтобы взаимодействие происходило естественно при взаимодействии с технологией, а не к естественности самого интерфейса. Это контрастирует с идеей интуитивно понятный интерфейс, имея в виду тот, который можно использовать без предварительного обучения.

Было предложено несколько дизайнерских стратегий, которые достигли этой цели с разной степенью успеха. Одна из стратегий - использование символа "пользовательский интерфейс реальности" ("RUI"),[1] также известный как "реалистичные интерфейсы" (RBI) методы. Одним из примеров стратегии RUI является использование носимый компьютер чтобы сделать объекты реального мира «интерактивными», то есть чтобы пользователь мог щелкнуть любой повседневный объект, чтобы он функционировал как гиперссылка, тем самым объединяя киберпространство и реальный мир. Поскольку термин «естественный» вызывает ассоциации с «миром природы», RBI часто путают с NUI, хотя на самом деле они являются лишь одним из средств достижения этого.

Одним из примеров стратегии разработки NUI, не основанного на RBI, является строгое ограничение функциональности и настройки, так что пользователям очень мало что нужно изучить при работе с устройством. При условии, что возможности по умолчанию соответствуют целям пользователя, интерфейс прост в использовании. Это всеобъемлющая стратегия дизайна в iOS от Apple.[нужна цитата ] Поскольку этот дизайн совпадает с дисплеем с прямым сенсорным экраном, люди, не являющиеся разработчиками, обычно ошибочно приписывают легкость взаимодействия с устройством этому мультисенсорному дисплею, а не дизайну программного обеспечения, в котором оно фактически находится.

История

Эволюция пользовательских интерфейсов

В 1990-е годы Стив Манн разработал ряд стратегий пользовательского интерфейса, использующих естественное взаимодействие с реальным миром в качестве альтернативы Интерфейс командной строки (CLI) или графический интерфейс пользователя (GUI). Манн назвал эту работу «естественными пользовательскими интерфейсами», «прямыми пользовательскими интерфейсами» и «вычислениями без метафор».[2] Манна EyeTap технология обычно воплощает пример естественного пользовательского интерфейса. Использование Манном слова «естественный» относится как к естественным действиям человека, так и к использованию самой природы, то есть физике (Естественная философия) и природная среда. Хорошим примером NUI в обоих этих смыслах является гидроулофон, особенно когда он используется в качестве устройства ввода, в котором прикосновение к естественному элементу (воде) становится способом ввода данных. В более общем смысле, класс музыкальных инструментов, называемых «физифонами», названных так от греческих слов «Physika», «Physikos» (природа) и «phone» (звук), также был предложен как «естественные пользовательские интерфейсы».[3]

В 2006 году Кристиан Мур основал открытое исследование сообщество с целью расширения обсуждения и развития, связанных с технологиями NUI.[4] В презентации на конференции 2008 года «Предсказание прошлого» Август де лос Рейес, главный директор по взаимодействию с пользователем в отделе Surface Computing в Microsoft, описал NUI как следующий этап эволюции после перехода от CLI к GUI.[5] Конечно, это тоже чрезмерное упрощение, поскольку NUI обязательно включают визуальные элементы - и, следовательно, графические пользовательские интерфейсы. Более точное описание этой концепции было бы описать ее как переход от WIMP в NUI.

В интерфейсе командной строки пользователи должны были изучить искусственные средства ввода, клавиатуру и серию кодифицированных вводов, которые имели ограниченный диапазон ответов, при этом синтаксис этих команд был строгим.

Затем, когда мышь включала графический интерфейс, пользователи могли легче изучать движения и действия мыши и могли гораздо больше исследовать интерфейс. Графический интерфейс пользователя полагался на метафоры для взаимодействия с экранным контентом или объектами. Например, «рабочий стол» и «перетаскивание» - это метафоры визуального интерфейса, который в конечном итоге был переведен обратно на строго кодифицированный язык компьютера.

Пример неправильного понимания термина NUI был продемонстрирован на Выставка бытовой электроники в 2010 году. «Теперь новая волна продуктов готова предоставить естественные пользовательские интерфейсы, как называются эти методы управления электронными устройствами, еще более широкой аудитории».[6]

В 2010 году Билл Бакстон из Microsoft подтвердил важность NUI в корпорации Microsoft, выпустив видео, в котором обсуждались технологии, которые могут быть использованы при создании NUI, и его будущий потенциал.[7]

В 2010 году Дэниел Вигдор и Деннис Виксон представили в своей книге операционализацию создания естественных пользовательских интерфейсов.[8] В нем они тщательно различают естественные пользовательские интерфейсы, технологии, используемые для их достижения, и пользовательский интерфейс, основанный на реальности.

Ранние примеры

Мультитач

Когда Билл Бакстон Когда его спросили об интерфейсе iPhone, он ответил: «Технологии мультитач имеют долгую историю. Для сравнения: первоначальная работа, проделанная моей командой, была выполнена в 1984 году, в том же году, когда был выпущен первый компьютер Macintosh, и мы были не первыми ".[9]

Multi-Touch - это технология, которая может обеспечить естественный пользовательский интерфейс. Однако большинство наборов инструментов пользовательского интерфейса, используемых для создания интерфейсов, выполняемых с помощью такой технологии, представляют собой традиционные графические интерфейсы пользователя.

Примеры интерфейсов, обычно называемых NUI

Воспринимаемый пиксель

Одним из примеров является работа, проделанная Джефферсон Хан на мультитач интерфейсы. Во время демонстрации на TED в 2006 году он продемонстрировал различные средства взаимодействия с экранным контентом, используя как прямые манипуляции, так и жесты. Например, чтобы сформировать на экране клейкую массу, Джефф буквально «щипает», толкает и тычет ее пальцами. Например, в графическом интерфейсе приложения для дизайна пользователь будет использовать метафору «инструменты», чтобы сделать это, например, выбрав рабочий инструмент или выбрав две части массы, к которым он затем хотел применить «щипок». действие к. Хан показал, что взаимодействие с пользователем может быть намного более интуитивным, если отказаться от устройств взаимодействия, к которым мы привыкли, и заменить их экраном, способным обнаруживать гораздо более широкий спектр человеческих действий и жестов. Конечно, это допускает только очень ограниченный набор взаимодействий, которые четко соответствуют физическим манипуляциям (RBI). Расширение возможностей программного обеспечения за пределы физических действий требует значительно большего объема проектных работ.

Microsoft PixelSense

Microsoft PixelSense использует аналогичные идеи о том, как пользователи взаимодействуют с контентом, но добавляет возможность устройству оптически распознавать объекты, расположенные поверх него. Таким образом, пользователи могут запускать действия на компьютере с помощью тех же жестов и движений, которые позволял сенсорный экран Джеффа Хана, но также объекты становятся частью механизмов управления. Так, например, когда вы ставите бокал для вина на стол, компьютер распознает его как таковой и отображает контент, связанный с этим бокалом. Размещение бокала на столе хорошо согласуется с действиями, совершаемыми с бокалами и другими столами, и, таким образом, хорошо отображается на интерфейсах, основанных на реальности. Таким образом, это можно рассматривать как начало опыта NUI.

3D иммерсивное касание

«3D иммерсивное прикосновение» определяется как прямое манипулирование объектами трехмерной виртуальной среды с использованием оборудования с одной или несколькими сенсорными поверхностями в многопользовательской трехмерной виртуальной среде. Создан впервые в 2007 году для описания и определения принципов обучения трехмерному естественному пользовательскому интерфейсу, связанных с Edusim. Естественный пользовательский интерфейс Immersive Touch теперь, кажется, приобретает более широкую направленность и значение благодаря более широкой адаптации поверхностного и сенсорного оборудования, такого как iPhone, iPod touch, iPad и растущего списка другого оборудования. Apple, похоже, также проявляет большой интерес к естественным пользовательским интерфейсам «Immersive Touch» в течение последних нескольких лет. Эта работа строится на широкой академической базе, изучающей 3D-манипуляции в средах виртуальной реальности.

Xbox Kinect

Kinect это обнаружение движения Устройство ввода к Microsoft для Xbox 360 игровая приставка и Windows ПК который использует пространственные жесты для взаимодействия вместо игровой контроллер. В соответствии с Microsoft страница, Kinect разработан для «революционно нового способа игры: не требуется контроллер».[10] Опять же, поскольку Kinect позволяет ощущать физический мир, он показывает потенциал для дизайна RBI и, следовательно, потенциально также для NUI.

Смотрите также

Примечания

  1. ^ Пользовательский интерфейс Reality (RUI), в статье заключительного основного выступления, озаглавленной «Реконфигурация себя как основа гуманистического интеллекта», Стив Манн, USENIX-98, Новый Орлеан, 15–19 июня 1998 г., опубликовано в: ATEC '98 Proceedings of the Annual Conference on USENIX Ежегодная техническая конференция Ассоциации USENIX Беркли, Калифорния, США © 1998
  2. ^ Интеллектуальная обработка изображений, John Wiley and Sons, 2001 г.
  3. ^ Естественные интерфейсы для музыкального выражения, Стив Манн, Ним 2007
  4. ^ Мур, Кристиан (15.07.2006). «Новое сообщество открыто». Сообщество NUI Group.
  5. ^ де лос Рейес, август (2008-09-25). «Предсказание прошлого». Веб-направление Юг, 2008 г.. Сиднейский конференц-центр: веб-направления.
  6. ^ Вингфилд, Ник (05.01.2010). "Body in Motion: CES для демонстрации Touch Gizmos". Wall Street Journal.
  7. ^ Бакстон, Билл (06.01.2010). «CES 2010: NUI с Биллом Бакстоном». Microsoft Research.
  8. ^ Дивный мир NUI
  9. ^ Бакстон, Билл. "Мультитач системы, которые я знал и любил". Билл Бакстон.
  10. ^ "Xbox.com Project Natal". Архивировано из оригинал на 2009-07-09. Получено 2009-08-02.

Рекомендации