W3C MMI - W3C MMI

В Мультимодальное взаимодействие это инициатива от W3C стремясь предоставить средства (в основном XML ) поддерживать Мультимодальное взаимодействие сценарии на Интернет.

Эта деятельность была начата в 2002 году. Рамки мультимодального взаимодействия Рабочая группа уже произвел:

Набор рассматриваемых устройств мобильные телефоны, автомобильная телематика, ПК подключен на Интернет.

Текущая работа

Следующее XML спецификации (в настоящее время находятся в состоянии расширенного рабочего проекта) уже рассматривают различные части основных требований:

  • EMMA (расширяемые мультимодальные аннотации): формат обмена данными для интерфейса между обработчиками ввода и системами управления взаимодействием. Он определит средства, с помощью которых распознаватели могут аннотировать данные приложения с помощью такой информации, как оценки достоверности, отметки времени, режим ввода (например, нажатие клавиш, речь или перо), альтернативные гипотезы распознавания и результаты частичного распознавания и т. Д.
  • InkML - ан XML язык для следов цифровых чернил: формат обмена данными XML для рукописных данных, вводимых электронным пером или стилусом как часть мультимодальной системы.
  • Мультимодальная архитектура: Слабосвязанная архитектура для среды мультимодального взаимодействия, которая фокусируется на предоставлении общих средств для взаимодействия компонентов друг с другом, а также базовой инфраструктуры для управления приложениями и сервисов платформы.
  • Язык разметки эмоций: EmotionML предоставит представления эмоций и связанных состояний для технологических приложений.

Смотрите также

  • Мультимодальное взаимодействие
  • VoiceXML - в W3C стандарт XML формат для задания интерактивных голосовых диалогов между человеком и компьютером.
  • SSML - Язык разметки синтеза речи
  • CCXML - Расширяемый язык разметки для управления вызовами
  • SCXML - язык XML, который обеспечивает общую среду выполнения на основе конечного автомата

Полезные ссылки