WikiDer > Рекурсия Левинсона

Levinson recursion

Рекурсия Левинсона или же Рекурсия Левинсона – Дурбина это процедура в линейная алгебра к рекурсивно вычислить решение уравнения, содержащего Матрица Теплица. В алгоритм вбегает Θ(п2) время, что значительно лучше Исключение Гаусса – Жордана, которая выполняется в Θ (п3).

Алгоритм Левинсона – Дурбина был впервые предложен Норман Левинсон в 1947 г. Джеймс Дурбин в 1960 году, а затем улучшено до 4п2 а потом 3п2 умножения на W. F. Trench и S. Zohar, соответственно.

Другие методы обработки данных включают: Разложение Шура и Разложение Холецкого. По сравнению с ними рекурсия Левинсона (в частности, разделенная рекурсия Левинсона) имеет тенденцию быть более быстрой в вычислительном отношении, но более чувствительна к вычислительным неточностям, таким как ошибки округления.

Алгоритм Барейса для Матрицы Теплица (не путать с общим Алгоритм Барейса) работает примерно так же быстро, как рекурсия Левинсона, но использует О(п2), тогда как рекурсия Левинсона использует только О(п) Космос. Однако алгоритм Барейсса численно стабильный,[1][2] тогда как рекурсия Левинсона в лучшем случае лишь слабо устойчива (т. е. демонстрирует численную устойчивость для хорошо кондиционированный линейные системы).[3]

Новые алгоритмы, называемые асимптотически быстрый или иногда сверх быстрый Алгоритмы Теплица, можно решить за Θ (п бревнопп) для различных п (например. п = 2,[4][5] п = 3 [6]). Рекурсия Левинсона остается популярной по нескольким причинам; во-первых, это относительно легко понять в сравнении; с другой стороны, он может быть быстрее сверхбыстрого алгоритма для небольших п (обычно п < 256).[7]

Вывод

Фон

Матричные уравнения имеют вид:

Алгоритм Левинсона – Дурбина может использоваться для любого такого уравнения, если M это известный Матрица Теплица с ненулевой главной диагональю. Здесь это известный вектор, и неизвестный вектор чисел Икся еще предстоит определить.

Ради этой статьи, êя представляет собой вектор, полностью состоящий из нулей, за исключением его я-е место, где находится значение один. Его длина будет неявно определяться окружающим контекстом. Период, термин N относится к ширине матрицы выше - M является N×N матрица. Наконец, в этой статье верхние индексы относятся к индекс индукции, а нижние индексы обозначают индексы. Например (и определение) в этой статье матрица Тп является п × п матрица, которая копирует верхний левый п × п блокировать от M - то есть, Тпij = Mij.

Тп также является матрицей Теплица; это означает, что это можно записать как:

Вступительные шаги

Алгоритм выполняется в два этапа. На первом этапе два набора векторов, называемые вперед и назад векторы, установлены. Прямые векторы используются, чтобы помочь получить набор обратных векторов; тогда их можно сразу выбросить. Обратные векторы необходимы для второго шага, где они используются для построения желаемого решения.

Рекурсия Левинсона – Дурбина определяет пth "прямой вектор", обозначенный , как вектор длины п который удовлетворяет:

В пth "обратный вектор" определяется аналогично; это вектор длины п который удовлетворяет:

Важное упрощение может произойти, когда M это симметричная матрица; то два вектора связаны соотношением бпя = жпп+1−я- то есть они являются перестановками друг друга. Это может сэкономить дополнительные вычисления в этом особом случае.

Получение обратных векторов

Даже если матрица не симметрична, то пth прямой и обратный вектор можно найти из векторов длины п - 1 следующим образом. Во-первых, прямой вектор может быть расширен нулем, чтобы получить:

При переходе от Тп−1 к Тп, дополнительные столбец добавление к матрице не нарушает решение, когда ноль используется для расширения прямого вектора. Однако дополнительные ряд добавлен в матрицу имеет возмутил решение; и он создал нежелательную ошибку εж что происходит на последнем месте. Вышеприведенное уравнение дает ему значение:

Эта ошибка будет вскоре возвращена и устранена из нового прямого вектора; но сначала обратный вектор должен быть расширен аналогичным образом (хотя и в обратном направлении). Для обратного вектора

Как и раньше, дополнительный столбец, добавленный к матрице, не нарушает этот новый обратный вектор; но дополнительная строка делает. Здесь у нас еще одна нежелательная ошибка εб со значением:

Эти два члена ошибки могут использоваться для формирования прямого и обратного векторов более высокого порядка, описанных ниже. Учитывая линейность матриц, для всех :

Если α и β выбраны так, что правая часть дает ê1 или же êп, то величина в скобках будет соответствовать определению пth прямой или обратный вектор соответственно. Если выбраны альфа и бета, векторная сумма в скобках будет простой и даст желаемый результат.

Чтобы найти эти коэффициенты, , таковы, что:

и соответственно , таковы, что:

Умножив оба предыдущих уравнения на получается следующее уравнение:

Теперь, когда все нули в середине двух векторов выше игнорируются и сворачиваются, остается только следующее уравнение:

После решения этих задач (с использованием обратной формулы матрицы Крамера 2 × 2) новые прямые и обратные векторы:

Выполнение этих векторных суммирований дает пth прямые и обратные векторы от предыдущих. Остается только найти первый из этих векторов, а затем некоторые быстрые суммы и умножения дают оставшиеся. Первые прямые и обратные векторы просто:

Использование обратных векторов

Вышеуказанные шаги дают N обратные векторы для M. Отсюда более произвольное уравнение:

Решение может быть построено тем же рекурсивным способом, что и обратные векторы. Соответственно, должен быть обобщен на последовательность промежуточных продуктов , так что .

Затем решение строится рекурсивно с учетом того, что если

Затем снова добавив ноль и определив при необходимости константу ошибки:

Затем мы можем использовать пth обратный вектор, чтобы исключить член ошибки и заменить его нужной формулой следующим образом:

Расширение этого метода до п = N дает решение .

На практике эти шаги часто выполняются одновременно с остальной частью процедуры, но они образуют единое целое и заслуживают того, чтобы их рассматривали как отдельный шаг.

Блокировать алгоритм Левинсона

Если M не совсем Теплиц, но блокировать Теплица, рекурсия Левинсона может быть получена почти таким же образом, если рассматривать блочную матрицу Теплица как матрицу Теплица с матричными элементами (Musicus 1988). Блочные матрицы Теплица возникают естественным образом в алгоритмах обработки сигналов при работе с несколькими потоками сигналов (например, в MIMO системы) или циклостационарные сигналы.

Смотрите также

Примечания

  1. ^ Боянчик и др. (1995).
  2. ^ Брент (1999).
  3. ^ Кришна и Ван (1993).
  4. ^ http://www.maths.anu.edu.au/~brent/pd/rpb143tr.pdf
  5. ^ «Архивная копия» (PDF). Архивировано из оригинал (PDF) на 2009-11-15. Получено 2009-04-28.CS1 maint: заархивированная копия как заголовок (ссылка на сайт)
  6. ^ https://web.archive.org/web/20070418074240/http://saaz.cs.gsu.edu/papers/sfast.pdf
  7. ^ http://www.math.niu.edu/~ammar/papers/amgr88.pdf

Рекомендации

Определение источников

  • Левинсон, Н. (1947). «Критерий ошибки Wiener RMS при проектировании и прогнозировании фильтров». J. Math. Phys., v. 25, pp. 261–278.
  • Дурбин, Дж. (1960). «Подгонка моделей временных рядов». Rev. Inst. Int. Стат., v. 28, pp. 233–243.
  • Тренч, У. Ф. (1964). «Алгоритм обращения конечных тёплицевых матриц». J. Soc. Indust. Appl. Математика., т. 12, с. 515–522.
  • Musicus, Б. Р. (1988). «Левинсон и быстрые алгоритмы Холецкого для теплицевых и почти теплицевых матриц». RLE TR № 538, Массачусетский технологический институт. [1]
  • Дельсарт П. и Генин Ю. В. (1986). «Сплит-алгоритм Левинсона». Транзакции IEEE по акустике, речи и обработке сигналов, v. ASSP-34 (3), pp. 470–478.

Дальнейшая работа

Резюме

  • Бэкстрём, Т. (2004). «2.2. Рекурсия Левинсона – Дурбина». Линейное прогнозирующее моделирование речи - ограничения и разложение пар линейного спектра. Докторская диссертация. № отчета 71 / Технологический университет Хельсинки, лаборатория акустики и обработки аудиосигналов. Эспоо, Финляндия. [3]
  • Клаербут, Джон Ф. (1976). «Глава 7 - Применение формы сигнала наименьших квадратов». Основы обработки геофизических данных. Пало-Альто: Научные публикации Блэквелла. [4]
  • Нажмите, WH; Теукольский С.А.; Феттерлинг, штат Вашингтон; Фланнери, BP (2007), «Раздел 2.8.2. Теплицевые матрицы», Числовые рецепты: искусство научных вычислений (3-е изд.), Нью-Йорк: Издательство Кембриджского университета, ISBN 978-0-521-88068-8
  • Голуб Г.Х., Лоан К.Ф. Ван (1996). «Раздел 4.7: Теплиц и родственные системы» Матричные вычисления, Издательство Университета Джона Хопкинса