Transcript Robust PCA
Robust PCA Principal Component Analysis (PCA) • PCA (Pearson, 1901) 最优线性重构 N min xn xˆn W n 1 2 xn W W xn x x T 2 • PCA (Hotelling, 1933) 最优方差投影方向 • Probabilistic PCA (1999) 高斯隐变量模型 • Robust PCA (2009) Why use Robust PCA? Solve the problem with spike noise with high magnitude instead of Gaussian distributed noise. Main Problem Given M = S0+L0, where S0 is a sparse spike noise matrix and L0 is a Low-rank matrix, aim at recovering L0: L0= UΣV’, in which U∈Rm*k ,Σ∈Rk*k ,V∈Rn*k Difference from PCA In PCA, M = N0+L0, L0: low rank matrix ; N0: small idd Gaussian noise matrix, it seeks the best rank-k estimation of L by minimizing ||M-L||2 subject to rank(L)<=k. This problem can be solved by SVD. Principal Component Analysis (PCA) [E. J. Candès, Journal of ACM 58(1): 1-37] Probabilistic PCA 已知样本矩阵X x1 x Wt x2 xd , 可以计算协方差矩阵S, W Uq q I 这里,隐变量t ~ N 0, I , 1 d q 变量x ~ N 0, WW I 。 2 噪声 ~ N 0, 2 I , T 2 2 1/ 2 R, d j q 1 j , U q S qU q , q diag1 ,, q , 1 2 d 为S的本征值。 已知 x时, t服从条件正态分布,且 E t x W W I 1 T X W W W I W X T 2 T 2 1 W T x。 维数约减:PCA与Probabilistic PCA 当 2 0时, W Uq q I 2 1/ 2 R U q 1q/ 2 R W W I R U U R R R R R W W W I W U R R R R U U U T 2 T 1 2 T 1 1/ 2 q T q T q T 2 1 ˆ X W W W I W T X q 1/ 2 q 1 1/ 2 q 1 T 1 q T q T 1 q T 1/ 2 q T q q T q T ˆ X PCA U qU q X PCA可以看成具有很小高斯噪声的Probabilistic PCA。 ill-posed problem (1) 设S0是稀疏的, L0是低秩的 M S0 L0 如果L0 ei eiT , 则L0既低秩,也稀疏。因此,M可以分解为: M S0 ei eiT 0 要求: 低秩部分L0不能够太稀疏,其行(列)奇异矢量 所张成的空间 与标准基必须incoherent。 ill-posed problem (2) 设S0是稀疏的, L0是低秩的 M S0 L0 如果S0在稀疏的同时,也是低秩的,例如:S0仅第一 列非零,因此M也可以分解为: M 0 S0 L0 要求: 稀疏部分S0不能够太低秩,例如假定其行 (列)不具有太多的零元素。 Conditions for exact recovery/decomposition 设L0 n1n2的奇异值分解式为 r L0 UV T i ui viT . i 1 L0需要满足Incoherence条件: 2 r T U ei , max i n1 UV T r n1n2 其中为很小的参数。 T max V ei i 2 r n2 比较: random orthogonal model? S0需要满足random sparsity model,其非零值的位置是随 机的。 低秩矩阵恢复问题 min Rank ( L) S M L S 0 非凸,NP难 min L * S M L S 1 核范数是秩函数的凸包 1范数是0范数的凸包 RPCA算法 罚函数法 Penalty Method min f X , s.t. hi X 0 (i 1,, K ) . K L X , f X hi X i 1 2 罚函数法 Penalty Method K min L X , f X hi X i 1 2 拉格郎日乘子法 Langrange Multiplier min f X , s.t. hi X 0 (i 1,, K ) . K L X , 1 ,, K f X i hi X i 1 增强拉格郎日乘子法 Augmented Langrange Multiplier min f X , s.t. hi X 0 (i 1,, K ) . L X , Y , f X Y , h X 2 h X F 2 ALM算法 Alternating Direction Method of Multipliers ADMM (an variant of ALM) min f ( x ) g ( x ) x min f ( x) g ( y ) x, y s.t. x y It can be solved approximately by first solving for x with y fixed, and then solving for y with x fixed. Rather than iterate until convergence, the algorithm proceeds directly to updating the dual variable and then repeating the process. 固定x,求解y(不必收敛);再固定y,求解x(不必收敛) ;迭代,直到收敛。 大数据 分成N块 RPCA的ALM方法 min A * E 1 D A E L A, E , Y , A * E 1 Y , D A E 固定A,求解E? 固定E,求解A? 2 D A E 2 F RPCA via the exact ALM method RPCA via the inexact ALM method 核范数与L1范数优化问题 L1范数优化 f x x 1 x w2 2 当x 0时, 递增且过0点 f x x w 0 ' w 0 w 0 当x 0时, 递增且过0点 f ' x x w 0 所以,极值点为: w , S w w , 0, 若w 0, 若w 0, 其它. w 0 w 0 核范数优化 r W USV T i ui viT , i 1 S diag 1 , 2 ,, r , 1 2 r 0, S S diag 1 , 2 ,, r US S V T T u v i i i i 0 秩优化 1 min Rank X X W X 2 r W USV i ui viT , T i 1 1 2 r 0, 秩为k的最佳逼近为 k PCA X k i ui viT , i 1 且 X k W 2 F r 2 i. i k 1 2 F