1.Тензорные разложения и аппроксимации низкого ранга(arXiv)
Автор:Цзяванг Не, Ли Ван, Цзюнь Чжэн
Аннотация: существуют линейные отношения между тензорными элементами тензоров низкого ранга. Эти линейные отношения могут быть выражены мультилинейными полиномами, которые называются производящими полиномами. Мы используем производящие полиномы для вычисления тензорных разложений и тензорных аппроксимаций низкого ранга. Мы доказываем, что это дает квазиоптимальное приближение тензора низкого ранга, если данный тензор достаточно близок к тензору низкого ранга.
2.Приближенное низкоранговое разложение для реальных симметричных тензоров(arXiv)
Автор:Альперен А. Эргюр, Иисус Реболло Буэно, Петрос Валеттас
Аннотация: мы исследуем влияние ε-комнаты устойчивости к возмущениям на симметричную тензорную декомпозицию с алгоритмической точки зрения. Точнее, мы доказываем теоремы и алгоритмы проектирования для следующей задачи. Предположим, что существует вещественный симметричный d-тензор f, норма ||.|| на пространстве симметричных d-тензоров и ε›0 допуска ошибки относительно ||.|| дано. Каков наименьший ранг симметричного тензора в ε-окрестности f? Другими словами, каков симметричный тензорный ранг f после умного ε-возмущения? Мы предоставляем две различные теоретические оценки и три алгоритма для приближенной оценки ранга симметричного тензора. Наш первый результат — рандомизированный алгоритм приращения энергии для случая Lp-норм. Наш второй результат — простой алгоритм на основе выборки, вдохновленный некоторыми методами геометрического функционального анализа, который работает для любой нормы. Мы также предлагаем дополнительный алгоритм в случае нормы Гильберта-Шмидта. Все наши алгоритмы поставляются со строгими оценками сложности, которые, в свою очередь, приводят к нашим двум основным теоремам о симметричном тензорном ранге с ε-комнатой допуска. Мы также сообщаем о наших экспериментах с предварительной реализацией алгоритма приращения энергии.
3. DeepTensor: низкоранговая тензорная декомпозиция с априорами глубокой сети(arXiv)
Автор: Вишванат Сарагадам, Рэндалл Балестриеро, Ашок Вирарагхаван, Ричард Г. Баранюк.
Аннотация: DeepTensor — это вычислительно эффективная платформа для декомпозиции матриц и тензоров низкого ранга с использованием глубоких генеративных сетей. Мы разлагаем тензор как произведение тензорных факторов низкого ранга (например, матрицу как внешнее произведение двух векторов), где каждый тензор низкого ранга генерируется глубокой сетью (ГС), которая обучается в самоконтролируемой сети. способ минимизировать среднеквадратичную ошибку аппроксимации. Наше ключевое наблюдение заключается в том, что неявная регуляризация, присущая DN, позволяет им фиксировать нелинейные сигнальные структуры (например, многообразия), недоступные классическим линейным методам, таким как разложение по сингулярным числам (SVD) и анализ главных компонентов (PCA). Кроме того, в отличие от SVD и PCA, производительность которых ухудшается, когда записи тензора отклоняются от аддитивного белого гауссовского шума, мы демонстрируем, что производительность DeepTensor устойчива к широкому диапазону распределений. Мы подтверждаем, что DeepTensor является надежной и эффективной в вычислительном отношении заменой для SVD, PCA, неотрицательной матричной факторизации (NMF) и аналогичных декомпозиций, исследуя ряд реальных приложений, включая шумоподавление гиперспектральных изображений, томографию 3D MRI и классификация изображений. В частности, DeepTensor предлагает улучшение отношения сигнал-шум на 6 дБ по сравнению со стандартными методами шумоподавления для сигналов, искаженных пуассоновским шумом, и учится разлагать трехмерные тензоры в 60 раз быстрее, чем одно DN, оснащенное трехмерными свертками.