WikiDer > Неравенства в теории информации

Inequalities in information theory

Неравенства очень важны при изучении теория информации. Это неравенство проявляется в разных контекстах.

Энтропийные неравенства

Рассмотрим кортеж из конечно (или максимально счетно) поддерживается случайные переменные на том же вероятностное пространство. Есть 2п подмножества, для которых (совместный) энтропии можно вычислить. Например, когда п = 2, мы можем рассматривать энтропии и . Они удовлетворяют следующим неравенствам (которые вместе характеризуют диапазон предельных и совместных энтропий двух случайных величин):

Фактически, все это можно выразить как частные случаи одного неравенства, включающего условная взаимная информация, а именно

куда , , и каждый обозначает совместное распределение некоторого произвольного (возможно, пустого) подмножества нашего набора случайных величин. Неравенства, которые могут быть получены как линейные комбинации этого, известны как Шеннон-типа неравенства.

Для большего существуют дополнительные ограничения на возможные значения энтропии. Чтобы сделать это точным, вектор в индексируется подмножествами как говорят энтропийный если есть совместное дискретное распределение п случайные переменные такой, что является их совместная энтропия, для каждого подмножества Множество энтропийных векторов обозначим , следуя обозначениям Йенга.[1]Он не замкнутый и не выпуклый для , но это топологическое замыкание известно, что он выпуклый и, следовательно, может быть охарактеризован (бесконечным числом) линейных неравенств, которым удовлетворяют все энтропийные векторы, называемые энтропийные неравенства.

Набор всех векторов, удовлетворяющих неравенствам типа Шеннона (но не обязательно другим энтропийным неравенствам), содержит .Это сдерживание строго для и дальнейшие неравенства известны как нешенноновский тип Чжан и Юнг сообщили о первом неравенстве, не относящемся к типу Шеннона.[2] Матус[3] доказал, что никакое конечное множество неравенств не может характеризовать (линейными комбинациями) все энтропийные неравенства. Другими словами, регион это не многогранник.

Нижние оценки расходимости Кульбака – Лейблера

Многие важные неравенства в теории информации фактически являются нижними границами Дивергенция Кульбака – Лейблера. Даже неравенства типа Шеннона можно считать частью этой категории, поскольку двумерная взаимная информация может быть выражено как расхождение Кульбака – Лейблера совместного распределения относительно произведения маргиналов, и, таким образом, эти неравенства можно рассматривать как частный случай Неравенство Гиббса.

С другой стороны, получить полезные оценки сверху для расходимости Кульбака – Лейблера гораздо сложнее. Это связано с тем, что расхождение Кульбака – Лейблера DKL(п||Q) очень чувствительно зависит от событий, которые очень редко встречаются в эталонном распределении. Q. DKL(п||Q) неограниченно возрастает как событие с конечной ненулевой вероятностью в распределении п становится чрезвычайно редким в справочном распределении Q, а на самом деле DKL(п||Q) даже не определено, если событие с ненулевой вероятностью в п имеет нулевую вероятность в Q. (Отсюда требование, чтобы п быть абсолютно непрерывным относительно Q.)

Неравенство Гиббса

Это фундаментальное неравенство утверждает, что Дивергенция Кульбака – Лейблера неотрицательно.

Неравенство Кульбака

Другое неравенство, касающееся расходимости Кульбака – Лейблера, известно как Неравенство Кульбака.[4] Если п и Q находятся распределения вероятностей на реальной линии с п абсолютно непрерывный относительно Q, и чьи первые моменты существуют, то

куда это большие отклонения функция оценки, т.е. выпуклый сопряженный из кумулянт-генерирующая функция, Q, и это первый момент из п.

В Граница Крамера – Рао является следствием этого результата.

Неравенство Пинскера

Неравенство Пинскера связывает Дивергенция Кульбака – Лейблера и общее расстояние вариации. В нем говорится, что если п, Q два распределения вероятностей, тогда

куда

- расхождение Кульбака – Лейблера в нац и

- полное расстояние вариации.

Другое неравенство

Неопределенность Хиршмана

В 1957 г.[5] Хиршман показал, что для (достаточно хорошо управляемой) функции такой, что и это преобразование Фурье сумма дифференциальные энтропии из и неотрицательно, т.е.

Хиршман предположил, и это было позже доказано,[6] что более резкая граница что достигается в случае Гауссово распределение, может заменить правую часть этого неравенства. Это особенно важно, поскольку оно подразумевает и сильнее, чем формулировка Вейля теории Гейзенберга. принцип неопределенности.

Неравенство Дао

Учитывая дискретные случайные величины , , и , так что принимает значения только в интервале [−1, 1] и определяется (такой, что ), у нас есть[7][8]

связывая условное ожидание с условная взаимная информация. Это простое следствие Неравенство Пинскера. (Примечание: поправочный коэффициент log 2 внутри радикала возникает потому, что мы измеряем условную взаимную информацию в биты скорее, чем нац.)

Смотрите также

Рекомендации

  1. ^ Йунг, Р.В. (1997). «Фреймворк для линейных информационных неравенств». IEEE Transactions по теории информации. 43 (6): 1924–1934. Дои:10.1109/18.641556.)
  2. ^ Zhang, Z .; Йунг, Р. В. (1998). «О характеризации функции энтропии через информационные неравенства». IEEE Transactions по теории информации. 44 (4): 1440–1452. Дои:10.1109/18.681320.
  3. ^ Матус, Ф. (2007). Бесконечно много информационных неравенств. 2007 Международный симпозиум IEEE по теории информации.
  4. ^ Fuchs, Aimé; Летта, Джорджио (1970). L'inégalité de Kullback. Приложение à la théorie de l'estimation. Séminaire de Probabilités. Конспект лекций по математике. 4. Страсбург. С. 108–131. Дои:10.1007 / bfb0059338. ISBN 978-3-540-04913-5. Г-Н 0267669.
  5. ^ Хиршман И. И. (1957). «Заметка об энтропии». Американский журнал математики. 79 (1): 152–156. Дои:10.2307/2372390. JSTOR 2372390.
  6. ^ Бекнер, В. (1975). «Неравенства в анализе Фурье». Анналы математики. 102 (6): 159–182. Дои:10.2307/1970980. JSTOR 1970980.
  7. ^ Тао, Т. (2006). "Повторное обращение к лемме Семереди о регулярности". Contrib. Дискретная математика. 1: 8–28. arXiv:математика / 0504472. Bibcode:2005математика ...... 4472T.
  8. ^ Альсведе, Рудольф (2007). «Последняя форма неравенства Дао, связывающая условное ожидание и условную взаимную информацию». Успехи в математике коммуникации. 1 (2): 239–242. Дои:10.3934 / amc.2007.1.239.

внешняя ссылка

  • Томас М. Обложка, Джой А. Томас. Элементы теории информации, Глава 16, «Неравенства в теории информации» John Wiley & Sons, Inc. 1991 Печать ISBN 0-471-06259-6 онлайн ISBN 0-471-20061-1 pdf[постоянная мертвая ссылка]
  • Амир Дембо, Томас М. Кавер, Джой А. Томас. Теоретико-информационные неравенства. IEEE Transactions по теории информации, Vol. 37, No. 6, ноябрь 1991 г. pdf