【論文筆記】Hybrid Subspace Learning for High-Dimensional Data

論文鏈接:Hybrid Subspace Learning for High-Dimensional Data

1. Abstract

真實世界中,高維數據是一個非常普遍的問題。在高維空間中學習一個緊的,低維子空間的數據表達有助於區分信號和噪聲。PCA方法是假設數據是可以被一個或多個隱藏的子空間的嵌入來表達。但是,在許多高維數據中,這種處理方法是不合適的。常常是隻有某些變量可以經過線性轉換投影到低維空間。論文提出了一種混合的降維技巧:部分變量投影到低維子空間,另外一部分變量保留。文章提出的模型能夠更加準確地估計隱藏空間,並且有較低的恢復誤差。

2. Introduction

高維數據經常出現在生物醫學中,比如基因表達數據(每個人基因表達數據的測量耗費較大)。一些傳統的機器學習算法缺失有效的統計性能去區分信號和噪聲。

緩和維度災難的方法包括提取原始特徵中的一個子集,或者學習一個新的子空間(原始特徵空間的投影)。論文提出的方法主要是學習數據在隱藏子空間的表達,這個表達能夠最大程度的原始數據的信息。

現存的子空間學習方法最大的限制在於它們假設數據可以通過嵌入一些低維子空間來完全表示。真實世界中,可能只有某個特徵子集纔會呈現出低維空間結構,而其餘的特徵仍然保留,而並非全部特徵。顯然,如果某些特徵 {Fi}\{F_i\} 與其它特徵完全不相關,而使用降維算法在學習潛在子空間時,子空間的每個維度都會帶有 {Fi}\{F_i\}。事實上,這個特徵集 {Fi}\{F_i\} 不應該帶入潛在子空間的學習上。

如下圖Fig1,兩幅圖都呈現出2維的子空間結構,但是第一幅圖的2維子空間每個維度都是 x1,x2,x3{x_1,x_2,x_3} 的線性組合。而第二幅圖的2維子空間只有z1z_1方向纔是x1,x2{x_1,x_2}的線性組合,w3w_3方向保留了原特徵 x3x_3 的信息。所以,我們需要從高維特徵中識別出對低維特徵空間沒有貢獻的稀疏特徵集,並且低維特徵空間中消去它們。

pic1
原文:In this work, we introduce a new method called hybrid subspace learning that estimates a latent representation of the data in which some features are mapped to a low-rank subspace but others remain in the original highdimensional feature space.

3. Motivation

論文使用模擬數據論證了真實世界中存在的 hybrid subspace,一種叫做singular value spectrum的方法被用來刻畫高維空間結構特徵(Low-Rank VS High-Dimension)。考慮兩個極端情況,完全Low-Rank的空間結構特徵使用singular value spectrum描述如下圖(f),完全High-Dimension的空間結構特徵使用同樣的方法描述如下圖(g)。
在這裏插入圖片描述

4. Model & Optimization

本節討論瞭如何使用數學模型來描述具有 hybrid subspace 結構的高維數據。

給定數據集 XRn×pX\in \mathbb R^{n\times p},傳統的子空間學習目標是解決:
minZ,AXZAF2\min_{Z,A}||X-ZA||_F^2
其中 ZRn×kZ\in\mathbb R^{n\times k} 表示每個點的 kk 維表示,ARk×pA\in\mathbb R^{k\times p} 表示由隱藏空間到觀測空間的映射轉換。當要求 ZZ 的列向量相互正交的時候,這個模型等價於PCA

爲了更加靈活的允許 XX 的每個特徵可以選擇加入Low-Rank表達 ZZ 或者High-Dimension表達 WW。所以總結得到以下優化問題:
Opt1
其中b{0,1}p\mathbf b\in\{0,1\}^pWdiag(b)\mathbf W\text{diag}(\mathbf b) 表示提取WW矩陣中某些維度。0\ell_0 正則化 b\mathbf b 項的目的主要是爲了限制過多的保留高維空間中的成分。

上述模型直接求解不太容易,需要對其進行變形處理以鬆弛限制條件,得到易於求解的優化目標。具體處理辦法及優化方法篇幅過長,類似於Robust PCA的方法,想了解詳情的同學建議閱讀原論文。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章