圖1:本次調(diào)查的目錄樹。

1 單視圖深度聚類

對(duì)于傳統(tǒng)的聚類任務(wù),通常假設(shè)數(shù)據(jù)具有相同的形式和結(jié)構(gòu),這被稱為單視點(diǎn)數(shù)據(jù)或單模態(tài)數(shù)據(jù)。通過深度神經(jīng)網(wǎng)絡(luò)(DNNs)提取這些數(shù)據(jù)的表示形式是深度聚類的一個(gè)重要特征。然而,更值得注意的是不同的應(yīng)用深度學(xué)習(xí)技術(shù),它們與DNNs的結(jié)構(gòu)高度相關(guān)。為了比較具體的DNNs的技術(shù)路線,根據(jù)特征提取器的訓(xùn)練方式,我們將單視圖深度聚類算法分為五類:基于深度自編碼器(DAE)的深度聚類,基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的深度聚類、基于變分自編碼器(VAE)的深度聚類、基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的深度聚類和基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度聚類。這些方法的區(qū)別主要在于損失分量,其中損失項(xiàng)的定義見表1,并解釋如下:

? DAE-based /GNN-based : L = L**rec + L**c,

? DNN-based : L = L**ext + L**c,

? VAE-based : L = L**ELBO + L**c,

? GAN-based : L = L**gan + L**c。

在本文中,面向聚類的損失Lc表示聚類目標(biāo)的損失?;贒AE/基于GNN的方法使用自動(dòng)編碼器/圖自動(dòng)編碼器作為特征提取器,因此損失函數(shù)總是由一個(gè)重構(gòu)損失Lrec和另一個(gè)面向聚類的損失Lc組成。相比之下,基于DNN的方法使用額外的任務(wù)或其他策略來優(yōu)化特征提取器?;赩AE的方法優(yōu)化了證據(jù)損失的下限LELBO?;贕AN的方法是基于生成式的對(duì)抗性損失Lgan?;谶@五個(gè)維度,現(xiàn)有的單視圖深度聚類方法總結(jié)見表2和表3。

表2:基于DAE和DNN的深度聚類方法總結(jié)。

表3:基于VAE、GAN-和基于GNN的單視圖深度聚類方法的總結(jié)。

1.1 基于深度自編碼器(DAE)的深度聚類

DAE 是一種無監(jiān)督學(xué)習(xí)技術(shù),旨在通過最小化網(wǎng)絡(luò)的重構(gòu)損失來學(xué)習(xí)低維嵌入特征空間。在基于 DAE 的深度聚類方法中,有兩種主要方法來獲取標(biāo)簽:將數(shù)據(jù)嵌入到低維特征中,然后使用傳統(tǒng)聚類方法(如 k-means 算法)對(duì)嵌入特征進(jìn)行聚類,或者聯(lián)合優(yōu)化特征提取器和聚類結(jié)果。定義為:

其中,φe(.)和φr(.)分別表示自動(dòng)編碼器的編碼器網(wǎng)絡(luò)和解碼器網(wǎng)絡(luò)。利用該編碼器作為特征提取器,提出了各種聚類目標(biāo)函數(shù)。我們將這些基于深度自編碼器的聚類方法總結(jié)為基于DAE的深度聚類。

1.2 基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的深度聚類

與基于自編碼器(DAE)的聚類方法不同,基于DNN的聚類方法需要設(shè)計(jì)額外的任務(wù)來訓(xùn)練特征提取器。我們從“聚類導(dǎo)向的損失函數(shù)”和“特點(diǎn)”兩個(gè)方面總結(jié)了基于DNN的聚類方法,其中“聚類導(dǎo)向的損失函數(shù)”顯示是否有損失函數(shù)明確縮小內(nèi)部簇距離或擴(kuò)大簇間距離?;贒NN的聚類方法可以使用全連接網(wǎng)絡(luò)來提取一維數(shù)據(jù)特征,也可以使用卷積神經(jīng)網(wǎng)絡(luò)來提取圖像特征。在計(jì)算機(jī)視覺領(lǐng)域,有一類基于 DNN 的聚類方法專注于圖像聚類,這些方法通常使用卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行圖像特征學(xué)習(xí)和語義聚類。圖2顯示了基于卷積神經(jīng)網(wǎng)絡(luò)的深度無監(jiān)督學(xué)習(xí)的框架。

圖2展示了基于DNN的學(xué)習(xí)框架(單視圖聚類)。X是用于聚類的數(shù)據(jù),f是用于X的特征提取器。第I部分描述了監(jiān)督學(xué)習(xí)的框架。Y表示真實(shí)標(biāo)簽,S表示預(yù)測(cè)結(jié)果。通過Y和S,我們可以計(jì)算分類損失以進(jìn)行反向傳播。第II部分是具有額外任務(wù)的方法的框架。這些額外任務(wù)用于訓(xùn)練良好嵌入Z的網(wǎng)絡(luò)。第III部分描述了需要微調(diào)聚類分配的方法的過程。S表示預(yù)測(cè)結(jié)果,R是S的調(diào)整。

1.3 基于變分自編碼器(VAE)的深度聚類

基于變分自編碼器(VAE)的深度聚類方法的目標(biāo)是解決關(guān)于證據(jù)下界(ELBO)的優(yōu)化問題,可以自動(dòng)學(xué)習(xí)數(shù)據(jù)的特征表示和聚類,同時(shí)可以處理高維數(shù)據(jù)。其中 ELBO 是聯(lián)合概率分布和近似概率分布之間的差異。p是聯(lián)合概率分布,q的近似概率分布p(z|x),x是集群的輸入數(shù)據(jù)和z潛在變量生成對(duì)應(yīng)于x:

不同之處在于,不同的算法有不同的潛在變量生成模型或不同的正則化器。

優(yōu)化后,

變分深度嵌入(VaDE)、高斯混合變分自動(dòng)編碼器(GMVAE)、潛在樹變分自編碼器(LTVAE)等備受關(guān)注的基于變分自編碼器的深度聚類方法,使用不同的潛在變量的生成模型或不同的正則化器。

1.4 基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的深度聚類

基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的深度聚類方法的目標(biāo)是學(xué)習(xí)數(shù)據(jù)的潛在分布,以便進(jìn)行聚類,使用生成器和判別器兩個(gè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,其中生成器用于生成假數(shù)據(jù),判別器用于區(qū)分真實(shí)數(shù)據(jù)和假數(shù)據(jù)。

圖3展示了基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的學(xué)習(xí)框架。φg是生成器,φd是判別器,εn和εc都是輸入到生成器的變量,其中εn是噪聲,εc是類別信息。X是用于聚類的數(shù)據(jù),?X是“欺騙”判別器的假數(shù)據(jù),函數(shù)f()作用于?X以生成ε?n和ε?c。

3種重要的基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的深度聚類方法:概率聚類算法是一種基于概率模型的聚類方法,可以通過最大化數(shù)據(jù)的似然函數(shù)來學(xué)習(xí)數(shù)據(jù)的潛在分布;CatGAN是一種改進(jìn)的 GAN 模型,可以用于多類別分類任務(wù)和半監(jiān)督學(xué)習(xí)任務(wù);可解釋的表示學(xué)習(xí)是一種基于信息理論的方法,可以學(xué)習(xí)數(shù)據(jù)的可解釋特征表示。

基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的深度聚類方法可以自動(dòng)學(xué)習(xí)數(shù)據(jù)的特征表示和聚類,同時(shí)可以處理高維數(shù)據(jù)和非線性數(shù)據(jù)。同時(shí)也存在一些挑戰(zhàn),例如訓(xùn)練不穩(wěn)定、模式崩潰和模式坍塌等問題。因此,需要進(jìn)一步研究和改進(jìn),以提高其性能和穩(wěn)定性。** **

1.5 基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度聚類

基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的深度聚類方法是一種可以處理任意圖結(jié)構(gòu)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),可以應(yīng)用于多種實(shí)際應(yīng)用場(chǎng)景,如社交網(wǎng)絡(luò)、蛋白質(zhì)結(jié)構(gòu)和交通網(wǎng)絡(luò)等。

GNN的經(jīng)典迭代計(jì)算方法:

即使用Banach的不動(dòng)點(diǎn)定理來計(jì)算狀態(tài),其中F是全局轉(zhuǎn)移函數(shù),H是狀態(tài)的固定點(diǎn),H = F(H, X)。該迭代計(jì)算方法可以處理任意圖結(jié)構(gòu)數(shù)據(jù),并且可以通過反向傳播算法進(jìn)行訓(xùn)練。在GNN的訓(xùn)練過程中,許多方法都試圖將注意和門控機(jī)制引入到圖結(jié)構(gòu)中。其中包括圖卷積網(wǎng)絡(luò)(GCN)等,如圖4。這些方法可以進(jìn)一步提高GNN的性能和穩(wěn)定性。

圖4展示了圖自編碼器在聚類中的數(shù)據(jù)流框架。GCN(N, M)是一個(gè)圖自編碼器,GCN()用于表示圖卷積神經(jīng)網(wǎng)絡(luò),圖自編碼器由兩層圖卷積神經(jīng)網(wǎng)絡(luò)組成。節(jié)點(diǎn)屬性N和圖結(jié)構(gòu)M都被用作編碼器的輸入。Z是節(jié)點(diǎn)嵌入向量的矩陣。α是一個(gè)激活函數(shù),Mf是圖鄰接矩陣M的預(yù)測(cè)值。

GNN在半監(jiān)督聚類、多視圖聚類和遷移學(xué)習(xí)等方面的應(yīng)用。半監(jiān)督聚類是一種利用標(biāo)記和未標(biāo)記數(shù)據(jù)進(jìn)行聚類的方法,可以通過GNN來學(xué)習(xí)數(shù)據(jù)的潛在表示和聚類。多視圖聚類是一種利用多個(gè)視圖數(shù)據(jù)進(jìn)行聚類的方法,可以通過GNN來融合多個(gè)視圖數(shù)據(jù)并進(jìn)行聚類。遷移學(xué)習(xí)是一種利用已有知識(shí)來解決新問題的方法,可以通過GNN來學(xué)習(xí)跨領(lǐng)域的表示和聚類。

2 半監(jiān)督深度聚類

半監(jiān)督深度聚類是一種深度聚類方法,它結(jié)合了有監(jiān)督和無監(jiān)督學(xué)習(xí)的優(yōu)點(diǎn),可以利用少量標(biāo)記數(shù)據(jù)和大量未標(biāo)記數(shù)據(jù)進(jìn)行聚類。該方法主要分為兩個(gè)階段:特征提取和降維,以及聚類。在特征提取和降維階段,使用自編碼器或生成對(duì)抗網(wǎng)絡(luò)等無監(jiān)督學(xué)習(xí)方法對(duì)數(shù)據(jù)進(jìn)行特征提取和降維。在聚類階段,使用傳統(tǒng)聚類算法如K-means等對(duì)特征進(jìn)行聚類。在這個(gè)過程中,少量標(biāo)記數(shù)據(jù)可以用于指導(dǎo)聚類過程,提高聚類的準(zhǔn)確性。半監(jiān)督深度聚類方法在圖像分類、文本聚類、圖像聚類等領(lǐng)域都有廣泛的應(yīng)用。

半監(jiān)督深度聚類方法還沒有得到很好的探索。表4介紹總結(jié)了幾個(gè)代表性的研究工作,這些工作使用不同的方法將關(guān)系約束和神經(jīng)網(wǎng)絡(luò)相結(jié)合,以獲得更好的聚類性能。

表4:半監(jiān)督的深度聚類方法。

3 多視圖深度聚類

多視圖深度聚類是一種利用多視角數(shù)據(jù)進(jìn)行深度聚類的方法。在現(xiàn)實(shí)世界中,數(shù)據(jù)通常來自不同的特征收集器或具有不同的結(jié)構(gòu),這些數(shù)據(jù)被稱為“多視圖數(shù)據(jù)”或“多模態(tài)數(shù)據(jù)”,每個(gè)樣本具有多個(gè)表示。多視圖深度聚類的目的是利用多視圖數(shù)據(jù)中包含的一致和互補(bǔ)信息來提高聚類性能。我們將多視圖深度聚類總結(jié)為三類:基于深度嵌入聚類(DEC)、基于子空間聚類和基于圖神經(jīng)網(wǎng)絡(luò)聚類。這些方法在表5中進(jìn)行了總結(jié)。

表5:多視圖深度聚類方法的總結(jié)

3.1 基于深度嵌入的聚類

基于深度嵌入聚類使用自編碼器學(xué)習(xí)低維嵌入特征表示,并最小化學(xué)生t分布和特征表示的輔助目標(biāo)分布之間的KL散度來實(shí)現(xiàn)聚類。改進(jìn)的DEC(IDEC)強(qiáng)調(diào)數(shù)據(jù)結(jié)構(gòu)保持,并在進(jìn)行微調(diào)任務(wù)時(shí)添加了低維特征表示的重構(gòu)損失項(xiàng)。一些深度多視角聚類方法也采用了這種深度學(xué)習(xí)流程。

3.2 基于子空間聚類的方法

基于子空間聚類的方法旨在處理高維數(shù)據(jù),其中數(shù)據(jù)點(diǎn)可以被表示為低維子空間中的線性組合。這些方法通常使用低秩矩陣分解或稀疏編碼來學(xué)習(xí)子空間表示,并使用譜聚類或k-means等傳統(tǒng)聚類算法來實(shí)現(xiàn)聚類。DSC-Net、DESC等方法使用自編碼器來學(xué)習(xí)低維嵌入特征表示,并使用譜聚類或k-means等傳統(tǒng)聚類算法來實(shí)現(xiàn)聚類。但是它們的性能高度依賴于子空間的質(zhì)量和數(shù)量。

3.3 基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的聚類方法

基于圖神經(jīng)網(wǎng)絡(luò)(GNN)的聚類方法。GNN允許對(duì)具有任意圖結(jié)構(gòu)的數(shù)據(jù)進(jìn)行端到端的可微損失計(jì)算,并已被應(yīng)用于廣泛的應(yīng)用領(lǐng)域,如社交網(wǎng)絡(luò)、蛋白質(zhì)結(jié)構(gòu)和交通網(wǎng)絡(luò)等。DeepCluster、Graclus和DiffPool等方法使用GNN來學(xué)習(xí)數(shù)據(jù)的低維嵌入表示,并使用譜聚類或k-means等傳統(tǒng)聚類算法來實(shí)現(xiàn)聚類?;贕NN的聚類方法是處理圖結(jié)構(gòu)數(shù)據(jù)的有效工具,但是它們的性能高度依賴于圖結(jié)構(gòu)的質(zhì)量和數(shù)量。

4 遷移學(xué)習(xí)深度聚類

遷移學(xué)習(xí)是一種新的學(xué)習(xí)框架,用于解決訓(xùn)練和測(cè)試數(shù)據(jù)來自不同特征空間或分布的問題。對(duì)于復(fù)雜數(shù)據(jù),如高分辨率的真實(shí)圖像和嘈雜視頻,傳統(tǒng)聚類方法甚至深度聚類方法也無法很好地工作,因?yàn)樘卣骺臻g的高維度和沒有統(tǒng)一的標(biāo)準(zhǔn)來保證聚類過程。遷移學(xué)習(xí)通過將來自具有附加信息的源域的信息轉(zhuǎn)移來指導(dǎo)目標(biāo)域的聚類過程,提供了解決這些問題的新解決方案。

基于DNN和GAN的遷移學(xué)習(xí)深度聚類方法的總結(jié)如圖6。DNN側(cè)重于兩個(gè)域的測(cè)量策略,是處理源域和目標(biāo)域之間相似性較高的數(shù)據(jù)的有效工具;而GAN使用判別器來擬合測(cè)量策略,是處理源域和目標(biāo)域之間相似性較低的數(shù)據(jù)的有效工具。但是它們的性能高度依賴于源域和目標(biāo)域之間的相似性。

表6:基于DNN和GAN的遷移學(xué)習(xí)深度聚類方法的總結(jié)

4.1 基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的遷移學(xué)習(xí)聚類方法

基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的遷移學(xué)習(xí)聚類方法旨在將源域和目標(biāo)域投影到相同的特征空間中,其中使用源嵌入和標(biāo)簽訓(xùn)練的分類器可以應(yīng)用于目標(biāo)域。深度適應(yīng)網(wǎng)絡(luò)(DAN)使用MMD(MK-MMD)的多個(gè)內(nèi)核變體作為其域適應(yīng)函數(shù),數(shù)據(jù)流框架如圖5。

圖5展示了深度適應(yīng)網(wǎng)絡(luò)(DAN)的數(shù)據(jù)流框架。Ds是源域,Dt是目標(biāo)域。f是兩個(gè)域的共享編碼器,可以使用現(xiàn)有網(wǎng)絡(luò)進(jìn)行初始化。f的前幾層被凍結(jié),f的最后幾層可以在訓(xùn)練過程中進(jìn)行微調(diào)。fs是Ds的編碼器,ft是Dt的編碼器。Ss是Ds的預(yù)測(cè)標(biāo)簽向量,Y是Ds的真實(shí)標(biāo)簽。St是Dt的預(yù)測(cè)結(jié)果。

4.2 基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的遷移學(xué)習(xí)聚類方法

基于生成對(duì)抗網(wǎng)絡(luò)(GAN)的遷移學(xué)習(xí)聚類方法使用判別器來擬合測(cè)量策略,以指導(dǎo)目標(biāo)域的聚類過程。Co-GAN在UDA中的數(shù)據(jù)流框架如圖6。

文章轉(zhuǎn)自微信公眾號(hào)@算法進(jìn)階

上一篇:

圖大模型的前沿綜述

下一篇:

卷積神經(jīng)網(wǎng)絡(luò)特征圖的可視化(CNN)
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊(cè)

多API并行試用

數(shù)據(jù)驅(qū)動(dòng)選型,提升決策效率

查看全部API→
??

熱門場(chǎng)景實(shí)測(cè),選對(duì)API

#AI文本生成大模型API

對(duì)比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)

#AI深度推理大模型API

對(duì)比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)