<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 設計應用 > 人工智能之ICA算法

人工智能之ICA算法

作者: 時(shí)間:2018-06-19 來(lái)源:網(wǎng)絡(luò ) 收藏

  機器學(xué)習有關(guān)算法內容,請參見(jiàn)公眾號“科技優(yōu)化生活”之前相關(guān)文章。之機器學(xué)習主要有三大類(lèi):1)分類(lèi);2)回歸;3)聚類(lèi)。今天我們重點(diǎn)探討一下算法。 ^_^

本文引用地址:http://dyxdggzs.com/article/201806/381805.htm

  獨立成分分析是近年來(lái)出現的一種強有力的數據分析工具(Hyvarinen A, Karhunen J, Oja E, 2001; Roberts S J, Everson R, 2001)。1994年由Comon給出了的一個(gè)較為嚴格的數學(xué)定義,其思想最早是由Heranlt和Jutten于1986年提出來(lái)的。

  ICA從出現到現在雖然時(shí)間不長(cháng),然而無(wú)論從理論上還是應用上,它正受到越來(lái)越多的關(guān)注,成為國內外研究的一個(gè)熱點(diǎn)。

  ICA獨立成分分析是一種用來(lái)從多變量(多維)統計數據里找到隱含的因素或成分的方法,被認為是PCA主成分分析(請參見(jiàn)(46))和FA因子分析的一種擴展。對于盲源分離問(wèn)題,ICA是指在只知道混合信號,而不知道源信號、噪聲以及混合機制的情況下,分離或近似地分離出源信號的一種分析過(guò)程。



  ICA算法概念:

  ICA(IndependentComponent Analysis) 獨立成分分析是一門(mén)統計技術(shù),用于發(fā)現存在于隨機變量下的隱性因素。ICA為給觀(guān)測數據定義了一個(gè)生成模型。在這個(gè)模型中,其認為數據變量是由隱性變量,經(jīng)一個(gè)混合系統線(xiàn)性混合而成,這個(gè)混合系統未知。并且假設潛在因素屬于非高斯分布、并且相互獨立,稱(chēng)之為可觀(guān)測數據的獨立成分。



  ICA與PCA相關(guān),但它在發(fā)現潛在因素方面效果良好。它可以應用在數字圖像、檔文數據庫、經(jīng)濟指標、心里測量等。

  ICA算法本質(zhì):

  ICA是找出構成信號的相互獨立部分(不需要正交),對應高階統計量分析。ICA理論認為用來(lái)觀(guān)測的混合數據陣X是由獨立元S經(jīng)過(guò)A線(xiàn)性加權獲得。ICA理論的目標就是通過(guò)X求得一個(gè)分離矩陣W,使得W作用在X上所獲得的信號Y是獨立源S的最優(yōu)逼近,該關(guān)系可以通過(guò)下式表示:

  Y = WX = WAS , A = inv(W)

  ICA相比與PCA更能刻畫(huà)變量的隨機統計特性,且能抑制高斯噪聲。

  從線(xiàn)性代數的角度去理解,PCA和ICA都是要找到一組基,這組基張成一個(gè)特征空間,數據的處理就都需要映射到新空間中去。



  ICA理論基礎:

  ICA理論基礎如下:

  1)標準正交基

  2)白化

  3)梯度下降

  ICA目標函數:

  ICA的目標函數如下:



  樣本數據 x 經(jīng)過(guò)參數矩陣 W 線(xiàn)性變換后的結果的L1范數,實(shí)際上也就是描述樣本數據的特征。

  加入標準正交性約束(orthonormality constraint)后,ICA獨立成分分析相當于求解如下優(yōu)化問(wèn)題:



  這就是標準正交ICA的目標函數。與深度學(xué)習中的通常情況一樣,這個(gè)問(wèn)題沒(méi)有簡(jiǎn)單的解析解,因此需要使用梯度下降來(lái)求解,而由于標準正交性約束,又需要每次梯度下降迭代之后,將新的基映射回正交基空間中,以此保證正交性約束。

  ICA優(yōu)化參數:

  針對ICA的目標函數和約束條件,可以使用梯度下降法,并在梯度下降的每一步中增加投影(projection )步驟,以滿(mǎn)足標準正交約束。過(guò)程如下:



  ICA算法流程:

  已知信號為S,經(jīng)混和矩陣變換后的信號為:X=AS。對交疊信號X,求解混矩陣B,使Y=WX各分量盡量相互獨立。求解W的過(guò)程并不一定是近似A的逆矩陣,Y也不是信號S的近似,而是為了使Y分量之間相互獨立。目的是從僅有的觀(guān)測數據X出發(fā)尋找一個(gè)解混合矩陣。

  常見(jiàn)的方法:InfoMax方法(用神經(jīng)網(wǎng)絡(luò )使信息最大化),FastICA方法(固定點(diǎn)算法,尋求X分量在W上投影(W^t)*X)的非高斯最大化。

  主要算法流程如下:

  1、預處理部分:1)對X零均值處理

  2)球化分解(白化)

  乘球化矩陣S,使Z=SX各行正交歸一,即ZZ’=I

  2、核心算法部分: 尋求解混矩陣U,使Y=UZ,Y各道數據盡可能獨立(獨立判據函數G)。

  1)、由于Y獨立,各行必正交。且通常取U保持Y各行方差為1,故U是正交變換。

  2)、所有算法預處理部分相同,以后都設輸入的為球化數據z,尋找正交矩陣U,使Y=Uz獨立。

  由于獨立判據函數G的不同,以及步驟不同,有不同的獨立分量分析法。

  3、Fast ICA算法思路:

  思路:屬于探查性投影追蹤

  目的:輸入球化數據z,經(jīng)過(guò)正交陣U處理,輸出Y=Uz

  1)輸入球化數據z,經(jīng)過(guò)正交陣某一行向量ui處理(投影),提取出某一獨立分量yi。

  2)將此分量除去,按次序依次提取下去,得到所有的yi ,以及ui。

  3)得到獨立的基向量U

  U=WX



  Fast ICA算法程序如下:

  function [Out1, Out2, Out3] =fastica(mixedsig, varargin)

  %FASTICA(mixedsig) estimates theindependent components from given

  % multidimensional signals. Each row ofmatrix mixedsig is one

  % observed signal.

  % = FASTICA (mixedsig); the rows oficasig contain the

  % estimated independent components.

  % = FASTICA (mixedsig); outputs the estimatedseparating

  % matrix W and the corresponding mixingmatrix A.

  mixedsig為輸入向量,icasig為求解的基向量。

  A即為混合矩陣,可以驗證mixedsig=A×icasig。

  W即為解混矩陣,可以驗證icasig=W×mixedsig。

  ICA算法優(yōu)點(diǎn):

  1)收斂速度快。

  2)并行和分布計算,要求內存小,易于使用。

  3)能通過(guò)使用一個(gè)非線(xiàn)性函數g便能直接找出任何非高斯分布的獨立分量。

  4)能夠通過(guò)選擇一個(gè)適當的非線(xiàn)性函數g而使其達到最佳化。特別是能得到最小方差的算法。

  5)僅需要估計幾個(gè)(不是全部)獨立分量,能極大地減小計算量。

  ICA算法缺點(diǎn):

  1) 特征矩陣W的特征數量(即基向量數量)大于原始數據維度會(huì )產(chǎn)生優(yōu)化方面的困難,并導致訓練時(shí)間過(guò)長(cháng);

  2) ICA模型的目標函數是一個(gè)L1范數,在 0 點(diǎn)處不可微,影響了梯度方法的應用。

  注:盡管可以通過(guò)其他非梯度下降方法避開(kāi)缺點(diǎn)2),也可以通過(guò)使用近似值“平滑” L1 范數的方法來(lái)解決,即使用 ( x2+ε )1/2 代替 |x|,對 L1 范數進(jìn)行平滑,其中 ε 是“平滑參數”(smoothing parameter)。

  ICA與PCA區別:

  1) PCA是將原始數據降維并提取出不相關(guān)的屬性,而ICA是將原始數據降維并提取出相互獨立的屬性。

  2) PCA目的是找到這樣一組分量表示,使得重構誤差最小,即最能代表原事物的特征。ICA的目的是找到這樣一組分量表示,使得每個(gè)分量最大化獨立,能夠發(fā)現一些隱藏因素。由此可見(jiàn),ICA的條件比PCA更強些。

  3) ICA要求找到最大獨立的方向,各個(gè)成分是獨立的;PCA要求找到最大方差的方向,各個(gè)成分是正交的。

  4) ICA認為觀(guān)測信號是若干個(gè)統計獨立的分量的線(xiàn)性組合,ICA要做的是一個(gè)解混過(guò)程。而PCA是一個(gè)信息提取的過(guò)程,將原始數據降維,現已成為ICA將數據標準化的預處理步驟。



  ICA算法應用:

  從應用角度看,ICA應用領(lǐng)域與應用前景都是非常廣闊的,目前主要應用于盲源分離、圖像處理、語(yǔ)言識別、通信、生物醫學(xué)信號處理、腦功能成像研究、故障診斷、特征提取、金融時(shí)間序列分析和數據挖掘等。

  結語(yǔ):

  ICA是一種常用的數據分析方法,是盲信號分析領(lǐng)域的一個(gè)強有力方法,也是求非高斯分布數據隱含因子的方法。從樣本-特征角度看,使用ICA的前提條件是,認為樣本數據由獨立非高斯分布的隱含因子產(chǎn)生,隱含因子個(gè)數等于特征數,要求的是隱含因子。ICA算法已經(jīng)被廣泛應用于盲源分離、圖像處理、語(yǔ)言識別、通信、生物醫學(xué)信號處理、腦功能成像研究、故障診斷、特征提取、金融時(shí)間序列分析和數據挖掘等領(lǐng)域。



關(guān)鍵詞: 人工智能 ICA

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>