> 文章列表 > 论文阅读:Unsupervised Manifold Linearizing and Clustering

论文阅读:Unsupervised Manifold Linearizing and Clustering

论文阅读:Unsupervised Manifold Linearizing and Clustering

Author: Tianjiao Ding, Shengbang Tong, Kwan Ho Ryan Chan, Xili Dai, Yi Ma, Benjamin D. Haeffele

Abstract

在本文中,我们建议同时执行聚类并通过最大编码率降低来学习子空间联合表示。 对合成和现实数据集的实验表明,所提出的方法实现了与最先进的替代方法相当的聚类精度,同时更具可扩展性和学习几何意义的表示。

1. Introduction

  1. 我们建议同时对数据进行聚类并通过MCR2^22 学习正交子空间并集表示,此时假定数据位于流形并集。 这是通过公式 (4) 实现的,该公式优化了表示和受最先进的子空间聚类结果启发的双随机成员公式。
  2. 我们给出了membership的参数化(图 2)。 此外,由于问题 (4) 是高度非凸的,我们给出了一个关于如何初始化变量和优化它的元算法(算法 1)。
  3. 我们在仿真和 CIFAR10 上进行实验,以证明所提出方法的一些理想特性。 我们进一步在 CIFAR100-20、CIFAR100-100 和 Tiny-ImageNet200 等具有大量类和不平衡类的数据集上进行实验,表明所提出的方法实现了最先进的性能。

1.1 与NMCE的区别

最近的NMCE也提出了我们研究的同一问题的解决方案,即对数据进行聚类并学习正交子空间表示的并集。特别地,NMCE在表示和成员矩阵上优化MCR2。在本文中,我们采用了类似的公式,使用双随机矩阵对点对affinity进行建模。除了有不同的概念公式和算法外,我们的公式在初始化方面更稳定,自然适用于分层聚类。

2. Problem Formulation

在这里,我们的方法基于MCR2^22的原理,该原理旨在当给定membership yyy时的有监督情况下学习理想表示。然后,我们讨论了同时进行聚类和学习表示的挑战,并提出了我们的聚类目标来解决该问题。

2.1. Supervised Manifold Linearizing via MCR2^22

令为fθ:RD→Sd−1f_\\theta:\\mathbb R^D\\rightarrow \\mathbb S^{d-1}fθ:RDSd1为由神经网络重参数化的featurizer,输出的特征为Zθ:=[z1,...,zn]=[fθ(x1),...,fθ(xn)]∈Rd×nZ_\\theta:=[z_1,...,z_n]=[f_\\theta(x_1),...,f_\\theta(x_n)]\\in\\mathbb R^{d\\times n}Zθ:=[z1,...,zn]=[fθ(x1),...,fθ(xn)]Rd×n,MCR2^22优化以下目标得到理想的表示:

max⁡θR(Zθ;ϵ)−Rc(Zθ,Π;ϵ)s.t.Zθ∈S\\max_\\theta R(Z_\\theta;\\epsilon)-R_c(Z_\\theta,\\Pi;\\epsilon)\\quad s.t. \\ Z_\\theta\\in\\mathcal SθmaxR(Zθ;ϵ)Rc(Zθ,Π;ϵ)s.t. ZθS
R(Zθ;ϵ)=log⁡det⁡(I−dnϵ2ZθZθ⊤)R_(Z_\\theta;\\epsilon)=\\log\\det(I-\\frac{d}{n\\epsilon^2}Z_\\theta Z_\\theta^\\top)R(Zθ;ϵ)=logdet(Inϵ2dZθZθ)
Rc(Zθ,Π;ϵ)=∑j=1k⟨Πj,1⟩nlog⁡det⁡(I+d⟨Πj,1⟩ϵZθDiag(Πj)Zθ⊤)R_c(Z_\\theta ,\\Pi ;\\epsilon)=\\sum_{j=1}^k\\frac{\\langle\\Pi_j,\\textbf 1\\rangle}{n}\\log\\det\\left(I+\\frac{d}{\\langle\\Pi_j,\\textbf 1\\rangle\\epsilon}Z_\\theta \\mathrm{Diag}(\\Pi_j)Z_\\theta^\\top \\right)Rc(Zθ,Π;ϵ)=j=1knΠj,1logdet(I+Πj,1ϵdZθDiag(Πj)Zθ)

其中S\\mathcal SS表示被normalization layer进行ℓ2\\ell_22规范化空间。Π∈Rn×k\\Pi\\in\\R^{n\\times k}ΠRn×k为成员矩阵,Πj\\Pi_jΠj为其第j列,因此⟨Πj,1⟩\\langle\\Pi_j,\\textbf 1\\rangleΠj,1表示属于第j类的数据点数目,ϵ\\epsilonϵ为精度超参。

当正确的Π\\PiΠ给定时,优化MCR2^22目标可以得到每个类簇均匀分布于一个子空间中(类内丰富)且不同类簇之间正交(类间可区分)。

2.2. Unsupervised Manifold Linearizing and Clustering via MCR2^22

在这里,我们考虑将MCR2^22用于无监督的情况。因此需要同时优化θ\\thetaθΠ\\PiΠ。然而,这通常是组合优化问题:其复杂性在呈nnnkkk的指数级增长,并且不允许的平滑和渐进变化。此外,第二个挑战是鸡和蛋的问题:如果已经有了理想的表示,那么可以应用现有的子空间聚类方法来估计membership;同样,如果已经有membership,那么求解MCR2^22将得到理想的表示。

双随机子空间聚类

在子空间聚类中,人们通常不会直接学习隶属关系的n×kn\\times kn×k矩阵。 相反,我们首先学习表示点对之间相似性的affinity矩阵,然后对学习到的内容应用谱聚类以获得最终聚类。 此外,对affinity进行双随机约束,抑制的错误连接以获得最先进的经验性能。受此启发,我们的约束写为:
Ω={Π∈Rn×n:Π≥0,Π1=Π⊤1}\\Omega = \\{\\Pi\\in\\R^{n\\times n}:\\Pi\\geq0,\\Pi\\textbf 1=\\Pi^\\top\\textbf 1\\}Ω={ΠRn×n:Π0,Π1=Π1}
然而,仅此约束不足以实现强大的聚类性能:仅考虑关于 $\\Pi$ 的优化,并注意目标关于$\\Pi$是强凸的。 由于我们最大化关于凸约束的凸函数,最优的Π\\PiΠ将位于Ω\\OmegaΩ的极值点,对于双随机矩阵是置换矩阵。 这对于聚类来说并不理想,因为它意味着每个点都被分配到它自己独特的类,并且没有动机将点合并到更大的类簇中。 为了解决这个问题,我们添加ℓ2\\ell_22正则化鼓励Π\\PiΠ偏向均匀矩阵1n11⊤\\frac{1}{n}\\bf 11^\\topn111,通过调整正则化项的权重我们还可以调整Π\\PiΠ的稀疏度。 这得到了我们最终提出的MLC:
论文阅读:Unsupervised Manifold Linearizing and Clustering
Πθ\\Pi_\\thetaΠθ现在同样由神经网络重参数化。我们首先展示该优化目标的几个优点:

  1. 参数化为神经网络使用固定的参数,每个mini-batch仅需占用batch size的内存和计算复杂度,而维护自由变量需要占用n×nn\\times nn×n的内存。
  2. 与NMCE相比,NMCE直接参数化membership,即对该矩阵Πn×k\\Pi_{n\\times k}Πn×k建模。Πn×k\\Pi_{n\\times k}Πn×k的初始化是任意的,与初始化表示中的结构无关,Πn×k\\Pi_{n\\times k}Πn×k的错误初始化可能导致来自不同真实簇的特征被压缩,因此NMCE不得不分开训练并需要三个阶段。 另一方面,可以使用来自自监督初始化特征 Z的结构确定地初始化双重随机membership。此外,有趣的是,我们的优化目标允许解释将每个点与其相邻点线性化。

2.3 Algorithms

论文阅读:Unsupervised Manifold Linearizing and Clustering

参数化ZθZ_\\thetaZθ

我们附加了一些具有非线性的仿射层作为表示头,以转换为Rd\\R^{d}Rd的输出,然后是一个normalization层以满足 Π∈Sd−1\\Pi\\in \\mathcal S_{d-1}ΠSd1约束。

参数化Πθ\\Pi_\\thetaΠθ

在子空间聚类中,给定数据 X 的Π\\PiΠ通常采用g(X)⊤g(X)g(X)^\\top g(X)g(X)g(X) 的形式,ggg为某种线性变换。例如在内积核函数中,g=Ig=Ig=I ;最小二乘回归中g=(I+λX⊤X)−1/2g=(I+\\lambda X^\\top X)^{-1/2}g=(I+λXX)1/2。 这促使我们通过神经网络对ggg进行参数化,并将Cθ⊤Cθ∈Rn×nC_\\theta^\\top C_\\theta\\in\\R^{n\\times n}CθCθRn×n 作为membership,其中Cθ=g(X)C_\\theta=g(X)Cθ=g(X)就是图中的cluster head。 然而,这样的n×nn\\times nn×n矩阵通常不是双随机的,因此我们使用了Sinkhorn投影层以获得最终结果PΩ,η(Cθ⊤Cθ)∈ΩP_{\\Omega,\\eta}\\left(C_\\theta^\\top C_\\theta\\right)\\in\\OmegaPΩ,η(CθCθ)Ω

[1] A unified framework for implicit sinkhorn differentiation. In IEEE/CVF Conference on Computer Vision and Pattern Recognition 2022.
[2] Transformers with doubly stochastic attention. In International Conference on Artificial Intelligence and Statistics, Oct. 2021.

初始化ZθZ_\\thetaZθ:通过自监督表示学习

正确初始化 ZZZΠ\\PiΠ对收敛到良好的局部最优非常重要。 另一方面,随机初始化的特征通常远非理想, 因此我们采用和NMCE一样的自监督策略,即要求增广样本之间相互接近:
论文阅读:Unsupervised Manifold Linearizing and Clustering

初始化Πθ\\Pi_\\thetaΠθ

在上述自监督特征初始化之后,ZZZ已经有了一些我们可以利用的结构。因此,我们建议将Πθ\\Pi_\\thetaΠθ初始化为PΩ,η(Zθ⊤Zθ)∈ΩP_{\\Omega,\\eta}\\left(Z_\\theta^\\top Z_\\theta\\right)\\in\\OmegaPΩ,η(ZθZθ)Ω,这很容易通过在前者的自监督初始化后将ZθZ_\\thetaZθ的参数从复制到Cluster head CθC_\\thetaCθ来实现。

最终的算法1:
论文阅读:Unsupervised Manifold Linearizing and Clustering

所以MLC的cluster head不像NMCE那样能直接展示所属关系,而需要谱聚类这样不稳定不可微的方法。不过NMCE的cluster head也有自己的问题,比如merge acc和标准acc差距过大。

2.4 与子空间聚类的比较

为了证明MLC对样本进行聚类和流形线性化的能力,我们在CIFAR10上进行了实验。子空间聚类方法主要依赖于数据接近线性子空间并集的假设,而许多真实世界的数据集可能无法满足这一假设。为了证明这一点,我们还将所提出的方法与子空间聚类方法进行了比较。将子空间聚类直接应用于CIFAR10的自监督特征将产生较低的聚类精度。相反,MLC能够实现高的聚类精度,并且产生正交子空间表示的并集,在该并集上,子空间聚类方法也可以实现高精度。

3 Experiments