WikiDer > Завершение матрицы - Википедия
Завершение матрицы - это задача заполнения недостающих элементов частично наблюдаемой матрицы. Широкий спектр наборов данных естественным образом организован в матричную форму. Одним из примеров является матрица рейтингов фильмов, представленная в Проблема с Netflix: Дана матрица рейтингов, в которой каждая запись представляет рейтинг фильма заказчиком , если клиент смотрел фильм и отсутствует, мы хотели бы предсказать оставшиеся записи, чтобы дать клиентам хорошие рекомендации о том, что смотреть дальше. Другой пример - термодокументная матрица: Частота слов, используемых в коллекции документов, может быть представлена в виде матрицы, где каждая запись соответствует количеству раз, когда связанный термин встречается в указанном документе.
Без ограничений по количеству степени свободы в заполненной матрице эта задача недоопределенный поскольку скрытым записям могут быть присвоены произвольные значения. Таким образом, заполнение матрицы часто стремится найти наименьшее классифицировать матрица или, если известен ранг заполненной матрицы, матрица классифицировать что соответствует известным записям. На рисунке показано, что частично раскрытая матрица ранга 1 (слева) может быть заполнена с нулевой ошибкой (справа), поскольку все строки с пропущенными записями должны совпадать с третьей строкой. В случае проблемы Netflix ожидается, что матрица оценок будет иметь низкий рейтинг, поскольку предпочтения пользователей часто можно описать несколькими факторами, такими как жанр фильма и время выхода. Другие приложения включают в себя компьютерное зрение, при котором необходимо восстановить недостающие пиксели в изображениях, определение глобального позиционирования датчиков в сети на основе информации о частичном расстоянии и мультиклассовое обучение. Проблема пополнения матрицы в общем случае NP-жесткий, но при дополнительных предположениях существуют эффективные алгоритмы, которые с большой вероятностью достигают точной реконструкции.
С точки зрения статистического обучения, проблема заполнения матрицы - это приложение матричная регуляризация который является обобщением вектора регуляризация. Например, в задаче пополнения матрицы низкого ранга можно применить штраф за регуляризацию в виде ядерной нормы
Завершение матрицы низкого ранга
Один из вариантов задачи пополнения матрицы - найти наименьшее классифицировать матрица что соответствует матрице , которую мы хотим восстановить, для всех записей в наборе наблюдаемых записей. Математическая постановка этой задачи следующая:
Кандес и Рехт[1] Доказано, что при допущениях о выборке наблюдаемых записей и достаточно большом количестве выбранных записей эта проблема имеет единственное решение с высокой вероятностью.
Эквивалентная формулировка при условии, что матрица подлежит восстановлению, как известно, из классифицировать , состоит в том, чтобы решить куда
Предположения
Ряд предположений относительно выборки наблюдаемых записей и количества выбранных записей часто делается для упрощения анализа и гарантии того, что проблема не возникнет. недоопределенный.
Единая выборка наблюдаемых записей
Чтобы сделать анализ управляемым, часто предполагается, что набор наблюдаемых записей и фиксированных мощность выбирается равномерно случайным образом из совокупности всех подмножеств элементов мощности . Для дальнейшего упрощения анализа вместо этого предполагается, что построен Отбор проб Бернулли, т.е. что каждая запись наблюдается с вероятностью . Если установлен на куда желаемое ожидаемое мощность из , и - размеры матрицы (пусть не теряя общий смысл), внутри из с большой вероятностью, таким образом Выборка Бернулли является хорошим приближением для однородной выборки.[1] Еще одно упрощение - предположить, что записи выбираются независимо и с заменой.[2]
Нижняя граница количества наблюдаемых записей
Предположим, что к матрица (с ) мы пытаемся восстановить классифицировать . Существует теоретико-информационная нижняя граница того, сколько записей должно быть соблюдено перед можно однозначно реконструировать. Набор к матрицы с рангом меньше или равным является алгебраическим многообразием в с размером . Используя этот результат, можно показать, что по крайней мерезаписи должны быть соблюдены для заполнения матрицы виметь уникальное решение, когда.[3]
Во-вторых, должна быть хотя бы одна наблюдаемая запись в каждой строке и столбце . В Разложение по сингулярным значениям из дан кем-то . Если строка незаметен, легко увидеть правый сингулярный вектор , , может быть изменено на какое-то произвольное значение и все равно дает соответствие матрицы над множеством наблюдаемых записей. Аналогично, если столбец не наблюдается, левый сингулярный вектор , может быть произвольным. Если мы предположим выборку Бернулли из набора наблюдаемых записей, Эффект сборщика купонов подразумевает, что записи в порядке должны соблюдаться, чтобы гарантировать, что есть наблюдение из каждой строки и столбца с высокой вероятностью.[4]
Комбинируя необходимые условия и полагая, что (допустимое предположение для многих практических приложений), нижняя граница количества наблюдаемых элементов, необходимых для предотвращения недоопределения проблемы завершения матрицы, составляет порядка .
Несогласованность
Понятие бессвязности возникло в сжатое зондирование. Он вводится в контексте завершения матрицы, чтобы гарантировать наличие сингулярных векторов не являются слишком "разреженными" в том смысле, что все координаты каждого сингулярного вектора имеют сравнимую величину, а не только несколько координат, имеющих значительно большие величины.[5][6] Стандартные базисные векторы тогда нежелательны в качестве сингулярных векторов, а вектор в желательно. В качестве примера того, что может пойти не так, если особые векторы достаточно "разрежены", рассмотрим к матрица с разложение по сингулярным числам . Практически все записи должен быть отобран, прежде чем его можно будет реконструировать.
Кандес и Рехт[1] определить когерентность матрицы с пространство столбца ан мерное подпространство в качестве , куда ортогональный проекция на . Затем несогласованность утверждает, что с учетом разложение по сингулярным числам из к матрица ,
- Записи имеют величины, ограниченные сверху
для некоторых .
Завершение матрицы низкого ранга с шумом
В реальных приложениях часто наблюдается повреждение всего нескольких записей, по крайней мере, из-за небольшого шума. Например, в проблеме Netflix рейтинги неопределенны. Candès и план [7] показали, что можно заполнить многие недостающие элементы больших матриц низкого ранга всего из нескольких зашумленных выборок путем минимизации ядерной нормы. Шумная модель предполагает, что мы наблюдаем
куда это шумовой термин. Обратите внимание, что шум может быть стохастическим или детерминированным. В качестве альтернативы модель может быть выражена как
куда является матрица с записями за при условии, что для некоторых .Чтобы восстановить неполную матрицу, мы пытаемся решить следующую задачу оптимизации:
Среди всех матриц, согласующихся с данными, найдите матрицу с минимальной ядерной нормой. Candès и план [7] показали, что эта реконструкция точна. Они доказали, что когда происходит полное бесшумное восстановление, то пополнение матрицы устойчиво по отношению к возмущениям. Ошибка пропорциональна уровню шума. . Следовательно, когда уровень шума мал, ошибка мала. Здесь проблема завершения матрицы не подчиняется свойству ограниченной изометрии (RIP). Для матриц RIP предполагает, что оператор выборки подчиняется
для всех матриц с достаточно малым рангом и Методы также применимы к проблемам восстановления разреженных сигналов, в которых RIP не выполняется.
Завершение матрицы высокого ранга
Пополнение матрицы высокого ранга в общем случае NP-Hard. Однако при определенных предположениях можно заполнить некоторую неполную матрицу высокого ранга или даже матрицу полного ранга.
Эрикссон, Бальцано и Новак [8] рассмотрели проблему заполнения матрицы в предположении, что столбцы матрицы принадлежат объединению нескольких подпространств низкого ранга. Поскольку столбцы принадлежат объединению подпространств, проблема может рассматриваться как версия таблицы с отсутствующими данными. кластеризация подпространств проблема. Позволять быть матрица, (полные) столбцы которой лежат в объединении не более чем подпространства, каждое из , и предположим . Эрикссон, Бальцано и Новак [8] показал, что при мягких предположениях каждый столбец могут быть полностью восстановлены с высокой вероятностью из неполной версии, если хотя бы записи наблюдаются равномерно случайно, причем константа, зависящая от обычных условий некогерентности, геометрического расположения подпространств и распределения столбцов по подпространствам.
Алгоритм включает несколько шагов: (1) локальные окрестности; (2) локальные подпространства; (3) уточнение подпространства; (4) полное матричное завершение. Этот метод может быть применен для заполнения матрицы расстояния в Интернете и идентификации топологии.
Алгоритмы
Предлагались различные алгоритмы завершения матрицы.[6] К ним относятся алгоритм на основе выпуклой релаксации,[1] градиентный алгоритм,[9] и альтернативный алгоритм, основанный на минимизации.[10]
Выпуклое расслабление
Задача минимизации ранга такова: NP-жесткий. Один из подходов, предложенных Кандесом и Рехтом, заключается в создании выпуклый релаксация проблемы и минимизация ядерных норма (что дает сумму сингулярные значения из ) вместо (который считает количество ненулевых сингулярные значения из ).[1] Это аналогично минимизации L1-норма а не L0-норма для векторов. В выпуклый релаксация может быть решена с помощью полуопределенное программирование (SDP), заметив, что проблема оптимизации эквивалентна
Сложность использования SDP для решения выпуклой релаксации . Современные решатели, такие как SDP3, могут обрабатывать только матрицы размером до 100 на 100. [11] Альтернативным методом первого порядка, который приближенно решает выпуклую релаксацию, является алгоритм пороговой обработки сингулярных значений, введенный Каем, Кандесом и Шеном.[11]
Кандес и Рехт показывают, используя исследование случайных величин на Банаховы пространства, что если количество наблюдаемых записей порядка (без ограничения общности предположим ) задача минимизации ранга имеет единственное решение, которое также является решением его выпуклой релаксации с вероятностью для некоторой постоянной . Если ранг маленький () размер набора наблюдений уменьшается до порядка . Эти результаты близки к оптимальным, поскольку минимальное количество элементов, которые необходимо соблюдать, чтобы проблема пополнения матрицы не была недооценена, составляет порядка .
Этот результат был улучшен Кандесом и Тао.[4] Они достигают оценок, которые отличаются от оптимальных только на полилогарифмический факторов, усиливая предположения. Вместо свойства некогерентности они предполагают свойство сильной некогерентности с параметром . Это свойство утверждает, что:
- за и за
- Записи ограничены по величине
Интуитивно сильная непоследовательность матрицы утверждает, что ортогональные проекции стандартных базисных векторов на имеет величины, которые имеют высокую вероятность, если сингулярные векторы были распределены случайным образом.[5]
Кандес и Тао обнаруживают, что когда является и количество наблюдаемых записей порядка , задача минимизации ранга имеет единственное решение, которое также оказывается решением его выпуклой релаксации с вероятностью для некоторой постоянной . Для произвольных , количество наблюдаемых элементов, достаточное для выполнения этого утверждения, порядка
Градиентный спуск
Кешаван, Монтанари и Ох[9] рассмотрим вариант заполнения матрицы, где классифицировать из к матрица , который подлежит восстановлению, как известно . Они предполагают Отбор проб Бернулли записей, постоянное соотношение сторон , ограниченное количество записей (пусть верхняя оценка будет ), а постоянная номер условия (куда и самые большие и самые маленькие сингулярные значения из соответственно). Далее они предполагают, что два условия некогерентности выполняются и куда и являются константами. Позволять быть матрицей, которая соответствует на съемочной площадке наблюдаемых записей и 0 в других местах. Затем они предлагают следующий алгоритм:
- Подрезать удалив все наблюдения из столбцов со степенью больше, чем установив для записей в столбцах значение 0. Аналогичным образом удалите все наблюдения из строк со степенью больше, чем .
- Проект на свой первый основные компоненты. Полученную матрицу назовем .
- Решать куда есть некоторые регуляризация функция градиентный спуск с линейный поиск. Инициализировать в куда . Набор как некоторая функция, заставляющая оставаться некогерентным на протяжении всего градиентного спуска, если и бессвязны.
- Возвращаться матрица .
Шаги 1 и 2 алгоритма дают матрицу очень близко к истинной матрице (измеряется среднеквадратичная ошибка (RMSE) с большой вероятностью. В частности, с вероятностью , для некоторой постоянной . обозначает Фробениуса норма. Обратите внимание, что полный набор предположений не требуется для того, чтобы этот результат был верным. Например, условие некогерентности применяется только при точной реконструкции. Наконец, хотя обрезка может показаться нелогичной, поскольку включает в себя отбрасывание информации, она обеспечивает проецирование на свой первый основные компоненты дает больше информации о базовой матрице чем о наблюдаемых записях.
На шаге 3 пространство матриц-кандидатов можно уменьшить, заметив, что внутренняя задача минимизации имеет то же решение для что касается куда и находятся ортонормированный к матрицы. потом градиентный спуск может выполняться над перекрестное произведение из двух Многообразия Грассмана. Если и наблюдаемый набор записей находится в порядке , матрица, возвращенная на шаге 3, в точности равна . Тогда алгоритм является оптимальным по порядку, поскольку мы знаем, что для задачи пополнения матрицы не должно быть недоопределенный количество записей должно быть в порядке .
Минимизация альтернативных наименьших квадратов
Чередующаяся минимизация представляет собой широко применимый и эмпирически успешный подход для поиска матриц низкого ранга, которые лучше всего соответствуют заданным данным. Например, для задачи завершения матрицы низкого ранга этот метод считается одним из самых точных и эффективных и является основным компонентом выигрышной записи в проблеме Netflix. В подходе альтернативной минимизации целевая матрица низкого ранга записывается в виде билинейная форма:
;
алгоритм затем чередует поиск лучших и лучший . Хотя общая проблема невыпуклая, каждая подзадача обычно является выпуклой и может быть решена эффективно. Джайн, Нетрапалли и Сангхави [10] дали одну из первых гарантий выполнения попеременной минимизации как для завершения матрицы, так и для определения матрицы.
Алгоритм альтернативной минимизации можно рассматривать как приближенный способ решения следующей невыпуклой задачи:
Алгоритм AltMinComplete, предложенный Джайном, Нетрапалли и Сангхави, представлен здесь:[10]
- Вход: наблюдаемый набор , значения
- Раздел в подмножества с каждым элементом принадлежащий одному из с равной вероятностью (выборка с заменой)
- т.е. верхний левые особые векторы
- Вырезка: Установить все элементы которые имеют величину больше, чем к нулю и ортонормировать столбцы
- за делать
- конец для
- Возвращаться
Они показали, что наблюдая случайные элементы некогерентной матрицы , Алгоритм AltMinComplete может восстанавливать в шаги. По сложности выборки (), теоретически чередующаяся минимизация может потребовать большего чем выпуклая релаксация. Однако эмпирически это кажется не так, что подразумевает, что границы сложности выборки могут быть еще более жесткими. Что касается временной сложности, они показали, что AltMinComplete требует времени.
.
Следует отметить, что, хотя методы, основанные на выпуклой релаксации, имеют строгий анализ, алгоритмы на основе альтернативной минимизации более успешны на практике.[нужна цитата]
Приложения
Кандес и План резюмируют несколько применений завершения матрицы.[7] следующее:
Совместная фильтрация
Совместная фильтрация Это задача автоматического прогнозирования интересов пользователя путем сбора информации о вкусовых качествах многих пользователей. Такие компании, как Apple, Amazon, Barnes and Noble и Netflix, пытаются предсказать свои пользовательские предпочтения на основе частичного знания. В такого рода задачах завершения матрицы неизвестная полная матрица часто считается низким рангом, потому что только несколько факторов обычно влияют на вкусы или предпочтения человека.
Идентификация системы
При контроле хотелось бы приспособиться к дискретной линейной инвариантной во времени модели в пространстве состояний.
к последовательности входов и выходы . Вектор состояние системы во время и это порядок модели системы. Из пары ввода / вывода хотелось бы восстановить матрицы и начальное состояние . Эту проблему также можно рассматривать как проблему пополнения матриц низкого ранга.
Локализация Интернета вещей (IoT)
Проблема локализации (или глобального позиционирования) возникает естественным образом в сенсорных сетях IoT. Проблема в том, чтобы восстановить карту сенсора в Евклидово пространство от локального или частичного набора попарных расстояний. Таким образом, это задача завершения матрицы с рангом два, если датчики расположены в 2-D плоскости, и с тремя, если они находятся в 3-D пространстве.[12]
Смотрите также
Рекомендации
- ^ а б c d е Candès, E.J .; Рехт, Б. (2009). «Точное завершение матрицы с помощью выпуклой оптимизации». Основы вычислительной математики. 9 (6): 717–772. arXiv:0805.4471. Дои:10.1007 / s10208-009-9045-5.
- ^ Рехт, Б. (2009). «Более простой подход к завершению матрицы» (PDF). Журнал исследований в области машинного обучения. 12: 3413–3430. arXiv:0910.0651. Bibcode:2009arXiv0910.0651R.
- ^ Сюй, Чжицян (2018). «Минимальное количество измерений для восстановления матрицы низкого ранга». Прикладной и вычислительный гармонический анализ. 44 (2): 497–508. arXiv:1505.07204. Дои:10.1016 / j.acha.2017.01.005.
- ^ а б Candès, E.J .; Тао, Т. (2010). "Сила выпуклой релаксации: почти оптимальное завершение матрицы". IEEE Transactions по теории информации. 56 (5): 2053–2080. arXiv:0903.1476. Дои:10.1109 / TIT.2010.2044061.
- ^ а б Тао, Т. (10 марта 2009 г.). «Сила выпуклой релаксации: почти оптимальное завершение матрицы». Какие новости.
- ^ а б Nguyen, L.T .; Kim, J .; Шим, Б. (10 июля 2019 г.). «Заполнение матрицы низкого ранга: современный обзор». Доступ IEEE. 7 (1): 94215–94237. arXiv:1907.11705. Bibcode:2019arXiv190711705N. Дои:10.1109 / ACCESS.2019.2928130.
- ^ а б c Candès, E.J .; План, Ю. (2010). «Завершение матрицы шумом». Труды IEEE. 98 (6): 925–936. arXiv:0903.3131. Дои:10.1109 / JPROC.2009.2035722.
- ^ а б Eriksson, B .; Balzano, L .; Новак, Р. (2011). «Завершение матрицы высокого ранга и кластеризация подпространств с отсутствующими данными». arXiv:1112.5629 [cs.IT].
- ^ а б Keshavan, R.H .; Монтанари,.; О, С. (2010). «Завершение матрицы из нескольких записей». IEEE Transactions по теории информации. 56 (6): 2980–2998. arXiv:0901.3150. Дои:10.1109 / TIT.2010.2046205.CS1 maint: числовые имена: список авторов (связь)
- ^ а б c Jain, P .; Netrapalli, P .; Сангхави, С. (2013). «Завершение матриц низкого ранга с использованием чередующейся минимизации». Материалы 45-го ежегодного симпозиума ACM на симпозиуме по теории вычислений. ACM. С. 665–674. arXiv:1212.0467. Дои:10.1145/2488608.2488693. ISBN 978-1-4503-2029-0.
- ^ а б Cai, J.-F .; Candès, E.J .; Шен, З. (2010). "Алгоритм определения порога сингулярного значения для завершения матрицы". SIAM Journal по оптимизации. 20 (4): 1956–1982. arXiv:0810.3286. Дои:10.1137/080738970.
- ^ Nguyen, L.T .; Kim, J .; Kim, S .; Шим, Б. (2019). «Локализация сетей IoT через завершение матрицы низкого ранга». Транзакции IEEE по коммуникациям. 67 (8): 5833–5847. Дои:10.1109 / TCOMM.2019.2915226.