Количество информации - Quantities of information
Эта статья нужны дополнительные цитаты для проверка.Сентябрь 2012 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
В математическая теория информации основан на теория вероятности и статистика, и измеряет информацию с помощью нескольких количество информации. Выбор логарифмического основания в следующих формулах определяет единица измерения из информационная энтропия что используется. Наиболее распространенной единицей информации является кусочек, на основе двоичный логарифм. Другие единицы включают нац, на основе натуральный логарифм, а Хартли, основанный на базе 10 или десятичный логарифм.
Далее выражение вида считается по соглашению равным нулю всякий раз, когда равно нулю. Это оправдано, потому что для любого логарифмического основания.
Самоинформация
Шеннон вывел показатель информационного содержания, названный самоинформация или же "сюрприз" сообщения :
куда вероятность того, что сообщение выбирается из всех возможных вариантов в пространстве сообщений . Основание логарифма влияет только на коэффициент масштабирования и, следовательно, на единицы измерения измеренного информационного содержания. Если логарифм равен 2, величина информации выражается в единицах биты.
Информация передается от источника к получателю только в том случае, если получатель информации еще не имел информации для начала. Сообщения, которые содержат информацию, которая наверняка произойдет и уже известна получателю, не содержат реальной информации. Редко появляющиеся сообщения содержат больше информации, чем более часто встречающиеся сообщения. Этот факт отражен в приведенном выше уравнении - некое сообщение, то есть с вероятностью 1, имеет нулевую информационную меру. Кроме того, составное сообщение из двух (или более) несвязанных (или взаимно независимых) сообщений будет иметь количество информации, которое является суммой показателей информации каждого сообщения в отдельности. Этот факт также отражен в приведенном выше уравнении, что подтверждает обоснованность его вывода.
Пример. Передача прогноза погоды: «Сегодняшний прогноз: темнота. Продолжительная темнота до широко рассеянного света утром». Это сообщение почти не содержит информации. Однако прогноз метели обязательно будет содержать информацию, так как такое бывает не каждый вечер. В точном прогнозе снега для теплого места, например, Майами. Количество информации в прогнозе снега для места, где никогда не будет снега (невозможное событие), является самым большим (бесконечность).
Энтропия
В энтропия дискретного пространства сообщений является мерой количества неуверенность один имеет о том, какое сообщение будет выбрано. Он определяется как средний самоинформация сообщения из этого пространства сообщений:
куда
- обозначает ожидаемое значение операция.
Важным свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны (например, ). В этом случае .
Иногда функция выражается через вероятности распределения:
- где каждый и
Важным частным случаем этого является бинарная функция энтропии:
Совместная энтропия
В совместная энтропия двух дискретных случайных величин и определяется как энтропия совместное распределение из и :
Если и находятся независимый, то совместная энтропия - это просто сумма их индивидуальных энтропий.
(Примечание: совместную энтропию не следует путать с перекрестная энтропия, несмотря на похожие обозначения.)
Условная энтропия (двусмысленность)
Учитывая конкретное значение случайной величины , условная энтропия данный определяется как:
куда это условная возможность из данный .
В условная энтропия из данный , также называемый двусмысленность из о тогда дается:
Это использует условное ожидание из теории вероятностей.
Основное свойство условной энтропии:
Дивергенция Кульбака – Лейблера (сбор информации)
В Дивергенция Кульбака – Лейблера (или же расхождение информации, получение информации, или же относительная энтропия) - это способ сравнения двух распределений, "истинное" распределение вероятностей , и произвольное распределение вероятностей . Если мы сжимаем данные таким образом, чтобы является распределением, лежащим в основе некоторых данных, когда на самом деле - правильное распределение, расхождение Кульбака – Лейблера - это количество средних дополнительных битов на элемент данных, необходимых для сжатия, или, математически,
Это в некотором смысле «расстояние» от к , хотя это неправда метрика из-за несимметричности.
Взаимная информация (трансинформация)
Оказывается, одним из самых полезных и важных показателей информации является взаимная информация, или же трансинформация. Это мера того, сколько информации можно получить об одной случайной величине, наблюдая за другой. Взаимная информация относительно (который концептуально представляет средний объем информации о что можно получить, наблюдая ) дан кем-то:
Основным свойством взаимной информации является то, что:
То есть зная , мы можем сэкономить в среднем биты в кодировке по сравнению с незнанием . Взаимная информация симметричный:
Взаимная информация может быть выражена как среднее Дивергенция Кульбака – Лейблера (получение информации) апостериорное распределение вероятностей из учитывая ценность к предварительное распространение на :
Другими словами, это мера того, насколько в среднем распределение вероятностей изменится, если нам дадут значение . Это часто пересчитывается как отклонение от произведения предельных распределений к фактическому совместному распределению:
Взаимная информация тесно связана с тест отношения правдоподобия в контексте таблиц непредвиденных обстоятельств и полиномиальное распределение и чтобы Χ Пирсона2 тест: взаимная информация может рассматриваться как статистика для оценки независимости между парой переменных и имеет четко определенное асимптотическое распределение.
Дифференциальная энтропия
Базовые меры дискретной энтропии были расширены по аналогии с непрерывный пространств заменой сумм на интегралы и вероятностные массовые функции с функции плотности вероятности. Хотя в обоих случаях взаимная информация выражает количество битов информации, общих для двух рассматриваемых источников, аналогия действительно нет подразумевают идентичные свойства; например, дифференциальная энтропия может быть отрицательной.
Дифференциальные аналогии энтропии, совместной энтропии, условной энтропии и взаимной информации определяются следующим образом:
куда - совместная функция плотности, и предельные распределения, и - условное распределение.
Смотрите также
Рекомендации
- ^ D.J.C. Маккей. Теория информации, выводы и алгоритмы обучения.:141