鍵.png)
使用這些基本 REST API 最佳實踐構(gòu)建出色的 API
時間序列(TS):時間序列A是有序的n個數(shù)據(jù)點的集合,分為單變量時間序列(UTS)和多變量時間序列(MTS)。UTS中每個點ai表示一個數(shù)值,屬于實數(shù)集R;MTS中每個點ai表示在同一時間點觀測到的多個變量,每個點本身就是長度為d的向量ai屬于Rd。
多變量時間序列(MTS):多變量時間序列A是n個向量的列表,每個向量ai有d個通道。這些通道的觀測值被表示為標(biāo)量ak,i。MTS可以被視為一組d個時間序列,所有ai中的觀測值都在同一時間或空間點觀察到。
數(shù)據(jù)集:數(shù)據(jù)集D包含m個時間序列和一組預(yù)定義的離散類標(biāo)簽C。每個時間序列A(i)可以是單變量或多變量,其標(biāo)簽為y(i) ∈ C。表1總結(jié)了UCR和UEA數(shù)據(jù)集的詳細(xì)信息。
時間序列分類(TSC):TSC是一種監(jiān)督學(xué)習(xí)任務(wù),通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)變量與一組時間序列之間的關(guān)系。TSC的目標(biāo)是將時間序列數(shù)據(jù)歸類為有限的類別,并訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型將時間序列數(shù)據(jù)集映射到具有C個類別標(biāo)簽的集合Y。在訓(xùn)練完成后,神經(jīng)網(wǎng)絡(luò)輸出一個包含C個值的向量,估計了時間序列屬于每個類別的概率。通常在神經(jīng)網(wǎng)絡(luò)的最后一層使用Softmax激活函數(shù)來實現(xiàn)這一目標(biāo)。
UCR和UEA時間序列存檔分別是單變量和多變量時間序列分類基準(zhǔn)數(shù)據(jù)集。UCR數(shù)據(jù)集于2002年提出,包含46個類別的數(shù)據(jù)集,2015年更新至85個,2018年擴展至128個,每個數(shù)據(jù)集樣本都帶有樣本類別標(biāo)簽。UEA數(shù)據(jù)集于2018年發(fā)布,包含30個多變量數(shù)據(jù)集,例如心電圖、運動分類、光譜分類等,這些數(shù)據(jù)集在維度數(shù)量、時間序列數(shù)量、時間序列類別數(shù)量和時間序列長度等方面各不相同。表1總結(jié)了UCR和UEA數(shù)據(jù)集的詳細(xì)信息。
近年來,深度學(xué)習(xí)在TSC中的復(fù)雜問題上展現(xiàn)出顯著的效果。基于深度學(xué)習(xí)的TSC方法主要分為生成式和判別式兩類。生成式方法的目標(biāo)是在訓(xùn)練分類器前找到合適的時間序列表示,而判別式方法則是直接將原始時間序列映射到類別概率分布。本綜述主要關(guān)注判別式方法,因為其端到端的特性避免了繁瑣的預(yù)處理。本文提出了一種基于網(wǎng)絡(luò)架構(gòu)和應(yīng)用領(lǐng)域的分類方法,如圖1所示,后續(xù)將詳細(xì)討論。
圖1 基于網(wǎng)絡(luò)結(jié)構(gòu)和應(yīng)用領(lǐng)域的深度學(xué)習(xí)時間序列分類體系結(jié)構(gòu)
全連接網(wǎng)絡(luò)(Fully Connected network,F(xiàn)C)是最簡單的神經(jīng)網(wǎng)絡(luò)架構(gòu),也稱為多層感知器(MuLtilayer Perceptron,MLP)。如圖2所示,F(xiàn)C中,每一層的所有神經(jīng)元都與下一層的所有神經(jīng)元連接,權(quán)重用于建模連接關(guān)系。MLP在處理時間序列數(shù)據(jù)時,存在的一個主要局限是它們不適合捕捉這種類型數(shù)據(jù)中的時間依賴關(guān)系。為了解決這個問題,一些研究將MLP和其他特征提取器相結(jié)合,如動態(tài)時間規(guī)整(DTW)。動態(tài)時間規(guī)整神經(jīng)網(wǎng)絡(luò)(DTWNN)利用DTW的彈性匹配技術(shù)來動態(tài)對齊網(wǎng)絡(luò)層的輸入與權(quán)重。盡管上述模型嘗試解決MLP模型無法捕捉時間依賴關(guān)系的問題,但它們在捕捉時間不變特征方面仍存在局限性。此外,MLP模型無法以多尺度方式處理輸入數(shù)據(jù)。許多其他深度學(xué)習(xí)模型更適合處理時間序列數(shù)據(jù),例如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNNs)和卷積神經(jīng)網(wǎng)絡(luò)(CNNs),這些模型專門設(shè)計用于捕捉時間序列數(shù)據(jù)中的時間依賴性和局部模式。
圖2 用于單變量時間序列分類的多層感知
CNN(卷積神經(jīng)網(wǎng)絡(luò))最初由Fukushima在1982年提出,靈感來自動物視覺皮層。隨著GPU技術(shù)的發(fā)展,Krizhevsky等人實現(xiàn)了高效的基于GPU的深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)Alex Net,并在2012年贏得ImageNet競賽,使CNN重新受到關(guān)注。CNN的主要組成部分包括卷積層、池化層和全連接層。卷積層學(xué)習(xí)輸入數(shù)據(jù)的特征表示,圖3顯示了t-LeNet網(wǎng)絡(luò)的架構(gòu),池化層降低特征圖分辨率并實現(xiàn)平移不變性,全連接層用于高級推理,最后一層常使用Softmax分類器進行分類任務(wù)。常用的激活函數(shù)包括Sigmoid、tanh和ReLU函數(shù)。池化層和全連接層在CNN中起重要作用,幫助減少參數(shù)數(shù)量、提高魯棒性并簡化模型復(fù)雜度。
圖3 t-LeNet 時間序列特定版本網(wǎng)絡(luò)架構(gòu)
3.2.1 改進卷積神經(jīng)網(wǎng)絡(luò)
自2012年AlexNet在計算機視覺領(lǐng)域取得突破以來,CNN在時間序列分類方面經(jīng)歷了多次改進,形成了改進的時間序列分類CNNs。首個模型是多通道深度卷積神經(jīng)網(wǎng)絡(luò)(MC-DCNN),針對多變量數(shù)據(jù)特點對傳統(tǒng)深度CNN進行改進。另一種模型是人體活動識別MC-CNN,同時將1D卷積應(yīng)用于所有輸入通道以捕捉時間和空間關(guān)系。全卷積網(wǎng)絡(luò)(FCN)和ResNet也被改進用于端到端的時間序列分類。ResNet被用于單變量時間序列分類,包含3個殘差塊,后跟1個GAP層和1個Softmax分類器。此外,文獻還提出了將ResNet和FCN結(jié)合的方法,以充分利用兩個網(wǎng)絡(luò)的優(yōu)勢。一些研究不僅調(diào)整網(wǎng)絡(luò)架構(gòu),還專注于修改卷積核以適應(yīng)時間序列分類任務(wù)。擴張卷積神經(jīng)網(wǎng)絡(luò)(DCNNs)是卷積神經(jīng)網(wǎng)絡(luò)的一種,使用擴張卷積增加感受野而不增加參數(shù)數(shù)量。分離型卷積神經(jīng)網(wǎng)絡(luò)(DisjointCNN)顯示將1維卷積核分解為不相交的時間和空間組件,幾乎不增加計算成本的情況下提高準(zhǔn)確性。
3.2.2 時間序列圖像化處理
時間序列分類的常見方法是將其轉(zhuǎn)化為固定長度的表示并輸入深度學(xué)習(xí)模型,但對長度變化或具有復(fù)雜時間依賴性的數(shù)據(jù)具有挑戰(zhàn)性。一種解決方法是將時間序列數(shù)據(jù)表示為圖像形式,使模型能學(xué)習(xí)內(nèi)部空間關(guān)系。Wang等人提出將單變量時間序列數(shù)據(jù)編碼為圖像并使用CNN分類的方法。Hatami等人則將時間序列轉(zhuǎn)化為2維圖像并用深度CNN分類。此外,Chen等人利用相對位置矩陣和VGGNet對2維圖像進行分類。Yang等人使用3種圖像編碼方法將多變量時間序列數(shù)據(jù)編碼為2維圖像。雖然這些方法在某些情況下有效,但將時間序列表示為2維圖像可能導(dǎo)致信息損失,影響準(zhǔn)確分類。使用特定轉(zhuǎn)換方法(如GASF, GADF和MTF)并沒有明顯改善預(yù)測結(jié)果。
3.2.3 多尺度卷積
本節(jié)討論了多尺度卷積神經(jīng)網(wǎng)絡(luò)(MCNN)、t-LeNet和多變量卷積神經(jīng)網(wǎng)絡(luò)(MVCNN)等模型,這些模型對輸入時間序列進行預(yù)處理,以在多尺度序列上應(yīng)用卷積。MCNN結(jié)構(gòu)簡單,包括2個卷積層、1個池化層、全連接層和Softmax層,但涉及大量數(shù)據(jù)預(yù)處理。t-LeNet使用窗口切片和窗口扭曲技術(shù)進行數(shù)據(jù)增強,以防止過擬合。受Inception架構(gòu)啟發(fā),Liu等人設(shè)計了MVCNN,使用3種尺度的卷積核提取傳感器之間的相互作用特征。Inception-ResNet架構(gòu)包括卷積層、Inception模塊和殘差塊,以提高性能。InceptionTime是一個集成模型,由5個相同結(jié)構(gòu)的深度學(xué)習(xí)分類器組成,每個分類器由兩個級聯(lián)的Inception模塊組成。它在UCR基準(zhǔn)測試中達到最先進性能。此外,還介紹了EEGinception、InceptionFCN、MRes-FCN等模型,這些模型在時間序列分類中表現(xiàn)優(yōu)秀,具有廣泛的應(yīng)用前景。表2總結(jié)了基于CNN的時間序列分類模型。
3.3.1 循環(huán)神經(jīng)網(wǎng)絡(luò)
RNNs是一種專門處理時間序列和其他序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),可以處理可變長度的輸入和輸出,通過在不同層之間建立共享參數(shù)的有向連接實現(xiàn)。時間序列分類的RNN模型可以分為序列到序列((圖4))和序列到單一輸出兩種類型。Dennis等人提出了一種用于時間序列分類的雙層RNN,以提高模型的并行性。Hermans等人展示了更深層次的循環(huán)神經(jīng)網(wǎng)絡(luò)可以在復(fù)雜的時間任務(wù)上執(zhí)行分層處理,并更有效地捕獲時間序列結(jié)構(gòu)。RNNs通常使用通過時間反向傳播(BPTT)的迭代訓(xùn)練方法進行訓(xùn)練,但訓(xùn)練過程中可能出現(xiàn)梯度消失或梯度爆炸問題。為了解決該問題,研究者們提出了可用于深層架構(gòu)的網(wǎng)絡(luò),如LSTM和GRU。
圖4 兩層循環(huán)神經(jīng)網(wǎng)絡(luò)的架構(gòu)
3.3.2 長短時記憶網(wǎng)絡(luò)
LSTM通過引入門控記憶單元,解決了梯度消失/梯度爆炸問題,利用隱藏向量和記憶向量控制狀態(tài)更新和輸出,因此在處理序列數(shù)據(jù)問題(如語言翻譯、視頻表示學(xué)習(xí)和圖像字幕生成)中表現(xiàn)出色。在處理時間序列分類問題時,通常采用序列到序列注意力網(wǎng)絡(luò) (S2SwA),該模型結(jié)合兩個LSTM(編碼器和解碼器)實現(xiàn)序列到序列學(xué)習(xí)。編碼器LSTM接收任意長度的輸入時間序列并提取關(guān)鍵信息,解碼器LSTM基于這些信息構(gòu)建固定長度的序列,這些序列作為自動提取的分類特征,為時間序列的準(zhǔn)確分類提供支持。
3.3.3 門控循環(huán)單元
GRU是一種備受青睞的循環(huán)神經(jīng)網(wǎng)絡(luò)變體,盡管其問世時間晚于LSTM,但其架構(gòu)更為簡潔。相較于LSTM,GRU僅包含重置門和更新門,這使其在計算上更為高效,同時對實現(xiàn)泛化的數(shù)據(jù)需求更少。特別的是,基于GRU的序列自編碼器專為處理時間序列分類問題而設(shè)計。該模型采用GRU作為編碼器和解碼器,從而能夠處理不同長度的輸入并產(chǎn)生固定大小的輸出。更值得一提的是,通過在大規(guī)模無標(biāo)簽數(shù)據(jù)上對參數(shù)進行預(yù)訓(xùn)練,該模型的準(zhǔn)確性得到了顯著提升。
3.3.4 混合模型
在時間序列分類中,CNN和RNN結(jié)合使用以提高模型性能。CNN擅長學(xué)習(xí)空間關(guān)系,如時間序列中不同時間步的通道模式和相關(guān)性,而RNN擅長學(xué)習(xí)時間依賴關(guān)系,捕捉時間序列的動態(tài)特性。這兩種模型的結(jié)合可以同時學(xué)習(xí)空間和時間特征,提高分類性能。然而,RNN在時間序列分類中的應(yīng)用較少,原因包括:
CNN在各種應(yīng)用中是最成功的深度學(xué)習(xí)框架之一,但無法有效捕獲長距離依賴關(guān)系和整體順序。因此,一些研究將RNN與CNN結(jié)合使用。然而,RNN的計算代價較高,捕捉長距離依賴性的能力有限。相對而言,注意力模型可以捕捉長距離依賴關(guān)系,提供更多上下文信息,提高模型的學(xué)習(xí)能力。注意力機制旨在關(guān)注重要特征并抑制不必要的特征,從而提高網(wǎng)絡(luò)的表示能力。注意力模型在自然語言處理領(lǐng)域已經(jīng)獲得成功,也有許多研究嘗試將其應(yīng)用于計算機視覺和時間序列分析等領(lǐng)域。
3.4.1 注意力機制
注意力機制最初由Bahdanau等人提出,用于改進神經(jīng)網(wǎng)絡(luò)機器翻譯中的編碼器-解碼器模型性能。注意力機制允許解碼器通過上下文向量關(guān)注源中的每個單詞,如圖5。已被證明在各種自然語言處理任務(wù)中非常有效,能夠捕捉文本中的長期依賴關(guān)系。注意力模塊已被嵌入到編碼器-解碼器模型中以提高模型性能。在時間序列分類任務(wù)中,注意力機制也被證明有效。許多研究嘗試在應(yīng)用注意力之前使用CNN對時間序列進行編碼。交叉注意力穩(wěn)定全卷積神經(jīng)網(wǎng)絡(luò)和局部感知可解釋卷積注意力網(wǎng)絡(luò)運用了注意機制長期依賴關(guān)系來處理多變量時間序列分類任務(wù)。已經(jīng)提出了幾種注意力模型以提高網(wǎng)絡(luò)性能,包括Squeeze-and-Excitation(SE)和多尺度注意力卷積神經(jīng)網(wǎng)絡(luò)(MACNN)。
圖5 自注意力機制
3.4.2 Transformers
近年來,Transformer在自然語言處理和計算機視覺任務(wù)中取得突破,成為深度學(xué)習(xí)領(lǐng)域的基礎(chǔ)模型。其具有編碼器-解碼器結(jié)構(gòu),接受源語言的詞序列作為輸入,并生成目標(biāo)語言的翻譯文本。Transformer架構(gòu)基于點積操作來尋找各輸入片段之間的關(guān)聯(lián)或相關(guān)性。用于分類的Transformer通常采用簡單的編碼器結(jié)構(gòu),包括注意力層和前饋層,圖6為Transformer的多 頭注意力模塊。一些研究應(yīng)用多頭注意力機制對臨床時間序列進行分類。另一項研究使用頻率系數(shù)和短時傅里葉變換頻譜等時頻特征作為輸入嵌入到transformers中。還有一項研究應(yīng)用于原始光學(xué)衛(wèi)星時間序列分類,采用高斯過程插值嵌入方法,獲得更好的表現(xiàn)。
圖6 多頭注意力模塊
3.4.3 自監(jiān)督注意力模型
自監(jiān)督學(xué)習(xí)是一種使用自動標(biāo)注而非人工標(biāo)注的數(shù)據(jù)集進行模型學(xué)習(xí)的方法,適用于手動標(biāo)注困難或成本高的情況,以及有大量可用數(shù)據(jù)用于訓(xùn)練的場景。在時間序列分類中,可以通過自動生成時間序列數(shù)據(jù)的標(biāo)簽來應(yīng)用自監(jiān)督學(xué)習(xí),例如訓(xùn)練模型預(yù)測序列中的下一個時間步或某個時間步的時間序列值?;赥ransformer的自監(jiān)督學(xué)習(xí)模型如BERT已被用于處理時間序列分類問題,如BENDER設(shè)計了用于時間序列的編碼器替代wav2vec,用于處理時間序列數(shù)據(jù)。另一項研究引入了一個基于Transformer的框架(TST),將標(biāo)準(zhǔn)Transformer應(yīng)用于多變量時間序列領(lǐng)域。然而,由于自動生成的標(biāo)簽可能無法準(zhǔn)確反映數(shù)據(jù)中的真實潛在關(guān)系,所學(xué)習(xí)的特征和預(yù)測質(zhì)量可能不如監(jiān)督學(xué)習(xí)產(chǎn)生的好。表3總結(jié)了 基于注意力的時間序列分類模型。
時間序列分類技術(shù)在人類活動識別、腦電圖情緒識別以及股票預(yù)測等領(lǐng)域具有廣泛應(yīng)用。本節(jié)將重點介紹其在人類活動識別和腦電圖情緒識別方面的應(yīng)用,并概述這些領(lǐng)域的最新進展和所面臨的挑戰(zhàn)。
HAR(人類活動識別)通過對傳感器或儀器收集的數(shù)據(jù)進行分析,用于識別或監(jiān)測人類活動。隨著可穿戴技術(shù)和物聯(lián)網(wǎng)的發(fā)展,HAR的應(yīng)用變得更加廣泛,包括醫(yī)療保健、健身監(jiān)測、智能家居以及輔助生活等。用于收集HAR數(shù)據(jù)的設(shè)備主要有視覺設(shè)備和基于傳感器的設(shè)備,其中基于傳感器的設(shè)備又分為對象傳感器、環(huán)境傳感器和可穿戴傳感器。大多數(shù)HAR研究使用可穿戴傳感器或視覺設(shè)備的數(shù)據(jù)。在可穿戴設(shè)備中,主要使用的傳感器包括加速度計、陀螺儀和磁傳感器,這些傳感器的數(shù)據(jù)被分成時間窗口,然后學(xué)習(xí)一個將每個時間窗口的多元傳感器數(shù)據(jù)映射到一組活動的函數(shù)。用于HAR的深度學(xué)習(xí)方法包括CNN和RNN,以及混合的CNNRNN模型。
4.1.1 卷積神經(jīng)網(wǎng)絡(luò)
在HAR(活動識別)中,卷積核的常見類型有k×1核,該核將k個時間步一起卷積,并在每個時間序列上移動。卷積層的輸出被展平并通過全連接層處理,然后進行分類。Ronao等人評估了HAR的CNN模型,研究了層數(shù)、卷積核數(shù)量和大小對模型的影響。Ignatov使用單層CNN并用統(tǒng)計特征增強提取的特征。另一種方法是使用1D-CNN進行特征提取,具有大卷積核尺寸和淺層數(shù)。特征被拼接并使用兩個全連接層融合。最后,通過softmax進行分類。DCNN使用離散傅立葉變換預(yù)處理傳感器數(shù)據(jù),將IMU數(shù)據(jù)轉(zhuǎn)換為頻率信號,然后使用2D卷積提取組合的時間和頻率特征。Lee等人對三軸加速度計數(shù)據(jù)進行預(yù)處理,轉(zhuǎn)換為幅度向量,并使用不同核大小的CNN并行提取不同尺度的特征。Xu等人在2DCNN和ResNet模型中使用可變形卷積,發(fā)現(xiàn)這些模型比非可變形模型表現(xiàn)更好。
4.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
在HAR領(lǐng)域,已經(jīng)提出了多種LSTM模型。Mura設(shè)計了3種多層LSTM模型,包括單向LSTM、雙向LSTM和級聯(lián)LSTM。Zeng等人在LSTM中添加了兩個注意力層,即傳感器注意力層和時間注意力層,還包括了一個稱為“連續(xù)注意力”的正則化項。Guan通過在每個訓(xùn)練時期保存模型,然后根據(jù)驗證集的結(jié)果選擇最佳數(shù)量的模型,創(chuàng)建了一個集成LSTM模型,以減少模型的方差。
4.1.3 混合模型
最近的研究主要集中在混合模型上,結(jié)合CNN和RNN。包括Deep-ConvLSTM、Singh等人的模型、Challa等人的模型、Nafea等人的模型、Mekruksavanich的模型和Chen等人的模型。其中Deep-ConvLSTM由4個時間卷積層和2個LSTM層組成,性能優(yōu)于等效的CNN。Singh等人的模型使用CNN對空間數(shù)據(jù)編碼,然后用LSTM對時間數(shù)據(jù)編碼,最后用自注意力層對時間步加權(quán)。Challa等人的模型用3個并行1D-CNN和2個雙向LSTM層。Nafea等人的模型使用不同核大小和雙向LSTMs的1D-CNNs。Mekruksavanich比較了4層的CNN-LSTM模型與小模型,發(fā)現(xiàn)額外卷積層可提高性能。Chen等人的模型使用并行1D-CNN,每個有不同卷積核和池化大小,提取與不同類型活動相關(guān)的特征。
情緒在人類決策、規(guī)劃等心理活動中起著關(guān)鍵作用,可通過面部表情、語言、行為或生理信號識別。腦電圖(EEG)是一種非侵入性的生理信號,可直接測量情緒狀態(tài)下的腦電活動,具有高時間分辨率、快數(shù)據(jù)采集和傳輸速度、低成本等優(yōu)點,是自發(fā)和非主觀地反映人類情緒狀態(tài)的信號,廣泛應(yīng)用于情緒識別研究。然而,EEG信號的非平穩(wěn)性、非線性特性以及偽影影響使得基于腦電圖的情緒識別極具挑戰(zhàn)性。本綜述的研究范圍僅提供了使用深度學(xué)習(xí)進行腦電圖情緒識別研究的簡要概述。深度學(xué)習(xí)方法可分為CNN、RNN以及混合的CNN-RNN模型,也有部分研究使用Transformer模型,但目前較少。
4.2.1 卷積神經(jīng)網(wǎng)絡(luò)
在情緒識別研究中,EEG信號通常使用1D-CNN架構(gòu)的卷積層進行處理,識別EEG信號中的模式。針對樣本數(shù)量不平衡的問題,提出了基于1D-CNN和BorderlineSMOTE數(shù)據(jù)增強方法的情感識別模型。此外,還提出了具有優(yōu)先級概念的梯度優(yōu)先粒子群優(yōu)化方法,用于選擇深度學(xué)習(xí)模型結(jié)構(gòu)。另一種基于節(jié)律選擇的1D-CNN模型用于使用多通道EEG信號進行自動情感識別。2D-CNN架構(gòu)也廣泛用于醫(yī)學(xué)數(shù)據(jù)的分割和分類,包括情緒識別。然而,1D-CNN和2D-CNN在處理復(fù)雜且高度變化的數(shù)據(jù)時可能表現(xiàn)不佳。
4.2.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
RNN是一種用于時間序列分析的深度學(xué)習(xí)模型,常用于EEG信號情感識別。Algarni等人提出了一種基于深度學(xué)習(xí)的EEG信號情感識別方法,包括數(shù)據(jù)選擇、特征提取、特征選擇和分類四個階段。他們使用了統(tǒng)計特征、小波特征和Hurst指數(shù)特征,并使用BGWO進行特征選擇,以提高模型性能。在分類階段,采用了堆疊的雙向長短時記憶(BiLSTM)模型來識別人類的情感。Sharma等人采用LSTM從經(jīng)過特征提取和降維處理后的數(shù)據(jù)中提取情緒變化特征,用于在線情緒識別。R2G-STNN結(jié)合了空間和時間神經(jīng)網(wǎng)絡(luò)模型,通過分層學(xué)習(xí)過程來提取空間-時間EEG特征。然而,RNN在EEG信號分類中的一個關(guān)鍵局限是在訓(xùn)練過程中會出現(xiàn)梯度消失問題,這可能導(dǎo)致模型在EEG信號分類任務(wù)中整體性能下降。
4.2.3 混合模型
最近的研究主要集中在混合模型,結(jié)合了CNN和RNN的優(yōu)點。這些模型包括Xiao等人的4維空間-頻譜-時間表示,Kang等人的CNN LSTM模型,Iyer等人的基于CNN和LSTM的混合模型,Kim等人的具有獨立分支的基于注意力機制LSTM網(wǎng)絡(luò)和CNN,以及Rajpoot等人的新型深度學(xué)習(xí)框架。這些模型在EEG信號的處理中,通過不同的方式提取特征,并進行分類。此外,還有EEGFuseNet模型,通過集成CNN, RNN和生成對抗網(wǎng)絡(luò)來整合不同來源EEG的特征信息。
近年來,深度學(xué)習(xí)在時間序列分類(TSC)領(lǐng)域非?;钴S,但尚未出現(xiàn)主導(dǎo)其他方法的模型。待解決的問題和未來研究趨勢包括:
本文章轉(zhuǎn)載微信公眾號@算法進階