<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 智能計算 > 設計應用 > 從NN神經(jīng)網(wǎng)絡(luò )理解隱空間

從NN神經(jīng)網(wǎng)絡(luò )理解隱空間

作者:高煥堂(銘傳大學(xué)、長(cháng)庚大學(xué)教授) 時(shí)間:2023-03-24 來(lái)源:電子產(chǎn)品世界 收藏


本文引用地址:http://dyxdggzs.com/article/202303/444884.htm

1   復習:創(chuàng )作力來(lái)源——

在2023 年1 月刊連載中,我們曾經(jīng)說(shuō)明在領(lǐng)域里,最近幾個(gè)很紅的圖像模型,例如DALLE、Imagen 和Midjourney 等, 它們都是基于一種機制:擴散(Diffusion)。經(jīng)由模型訓練,操作(Latent space) 的向量,加上隨機輸入中合成新的數據,呈現出令人驚奇的創(chuàng )作,推動(dòng)了AI 組合的創(chuàng )新或創(chuàng )作。這意味著(zhù),關(guān)于A(yíng)I 的生成或創(chuàng )作,大多會(huì )涉及的操作。

現在先從一個(gè)基本問(wèn)題出發(fā),這個(gè)問(wèn)題是:為什么AI會(huì )創(chuàng )作呢?由于當今的AI是基于ML( 機器學(xué)習),它會(huì )向人類(lèi)學(xué)習。繼續探索下去,它向人類(lèi)學(xué)習什么呢?學(xué)習人類(lèi)的做事和創(chuàng )物的經(jīng)驗直覺(jué)。經(jīng)驗直覺(jué)的邏輯是不清晰的,無(wú)法經(jīng)由編程來(lái)寫(xiě)成代碼。那我們該如何把人類(lèi)的直覺(jué)智慧弄進(jìn)機器(AI) 呢?

答案是:從人類(lèi)的作品( 如繪畫(huà)、音樂(lè )、文學(xué)作品、食譜、游戲、對話(huà)、網(wǎng)絡(luò )文章) 中學(xué)習作品的形式、風(fēng)格、情緒等。這些作品被放到網(wǎng)絡(luò )上,皆成為大數據(Big Data)。于是,我們就拿這些大數據來(lái)給AI 學(xué)習,謂之訓練(Training)。

AI 從人類(lèi)作品中學(xué)習到人類(lèi)專(zhuān)家( 創(chuàng )作者) 的招式(Patterns) 和風(fēng)格(Style)。如同金庸武俠小說(shuō)中的楊過(guò)、小龍女向大俠們學(xué)習了許多武功招式。經(jīng)年累月,楊過(guò)和小龍女學(xué)而時(shí)習之,逐漸地在內心深處沉淀出招式背后的精華神韻,謂之無(wú)招秘境。

一樣地,AI 經(jīng)過(guò)幾十天學(xué)習大量作品的創(chuàng )作招式和風(fēng)格,逐漸地在A(yíng)I 模型內部的秘境中沉淀出招式背后的精華神韻,這個(gè)AI 中的無(wú)招秘境,謂之隱藏空間(Latent Space),又簡(jiǎn)稱(chēng)隱空間。

武俠中說(shuō):無(wú)中生有,從無(wú)招中生出千變萬(wàn)化,無(wú)招勝有招。一樣地,AI 也能從其無(wú)招秘境中的精華神韻,生出千變萬(wàn)化的新招式,也就是新作品、新內容(Content)。這種新創(chuàng )作新內容,就謂之(AI Generated Content)。

除了上述的AI 創(chuàng )作力來(lái)自隱空間之外,隱空間也將會(huì )是管理大量繁雜模型的利器。例如,可以預測到了2030年之際,AI 模型將更為百花齊放,繁雜多樣,就會(huì )導致難以管理,使得管理成本急速升高。

就如同20 世紀八九十年代,經(jīng)濟生產(chǎn)全球化,碼頭上貨物形形色色,繁雜多樣,非常難管理,導致管理成本急速升高。于是集裝箱(Container) 這個(gè)角色就應運而生,大貨輪也出來(lái)了,陸地上拖車(chē)業(yè)也大發(fā)利市了。同樣地,到了2030 年,AI 模型的集裝箱角色就很可能會(huì )出來(lái)。

我認為,AI 的隱空間即將成為AI 的集裝箱。而且在未來(lái)數年內,凡是力求掌握潛藏空間,致力于開(kāi)發(fā)控制軟件系統,來(lái)有效管理AI 貨柜( 即潛藏空間) 者,將成為AIGC 時(shí)代的大贏(yíng)家。

2   從NN模型深刻理解隱空間

首先從最簡(jiǎn)易的單層NN(Neural network) 模型出發(fā)。這種簡(jiǎn)單模型只含有一層權重(Weight),茲以圖1 這樣的NN 圖形為例。

1679648078643657.png

圖1

這個(gè)模型從X 空間對映到Z 空間。其含有兩層(Layer) 神經(jīng)元:左邊的X 神經(jīng)元是輸入(Input) 層,而右邊的Z 神經(jīng)元,是輸出(Output) 層。然而只有一層權重,所以通稱(chēng)為:?jiǎn)螌覰N 模型。接著(zhù),就可以繼續擴大為兩層NN 模型,如圖2 所示。

1679648101495914.png

圖2

這個(gè)NN模型里包含兩層權重,所以稱(chēng)為:兩層NN模型。這個(gè)中間層,又通稱(chēng)為:隱藏(Hidden) 層。它就是構成隱空間的核心機制。

3   觀(guān)摩:以求職AI為例

大家常常聽(tīng)說(shuō)求職法則是:錢(qián)多、事少、離家近。我們如何把這個(gè)簡(jiǎn)單法則納入NN 模型里,讓它就學(xué)會(huì )這項法則呢。此時(shí),人們透過(guò)T 值來(lái)表達他( 她) 心中的規則。

例如有人的求職法則是:“錢(qián)多”比“事少”更重要,“事少”比“離家近”更重要。當然,有人比較在意“錢(qián)多”,也有人認為“離家近”更重要。人人心中的規則可能各不相同,各自可修改這表格里的數據,表達自己特別的規則,如表1。

表1 三種條件的關(guān)聯(lián)性

1679648188649972.png

從這些數據可以看出來(lái),這位人士心中的偏好是:“錢(qián)多”比“事少”更重要,“事少”比“離家近”更重要。只要給NN 模型一些訓練,它就能認知到這位人士心中的規則了。雖然它聽(tīng)不懂人類(lèi)的語(yǔ)言,也不需要寫(xiě)Python語(yǔ)言告訴它;只需要提供數據給它學(xué)習就可以了。

這個(gè)NN模型里的隱藏層,并沒(méi)有使用Sigmoid()激活函數。一樣地,只要按下這個(gè)< 兩層一起學(xué)習>按鈕,ML就會(huì )尋找出隱藏層的權重WH和BH,同時(shí)也尋找出輸出層的權重W和B如表2。

表2 輸出權重訓練邏輯示意

1679648252465314.png

然后將輸入層X空間,對映到隱藏層H空間,再對映到輸出層的Z空間。于是得出HZ預測值。例如,將X=[1, 1, 0] 經(jīng)由兩層權重的計算流程如圖3所示。

1679648296561810.png

圖3

最后計算出Z 值為:0.99。這就是典型的兩層NN模型了。在訓練的過(guò)程中,每一回合都會(huì )修正輸出層的權重,也會(huì )修正隱藏層的權重。所以這兩層權重是同步成長(cháng)的。

4   多層的NN模型

剛才的范例是兩層NN 模型,它只含有一個(gè)隱藏層(Hidden Layer)。有些情境下,常常1 個(gè)NN 模型里,需要含有更多個(gè)隱藏層,這種模型就通稱(chēng)< 多層NN 模型>,或稱(chēng)為< 深度NN 模型>。

例如,可以繼續擴大上述的NN 模型,讓它含有兩隱藏層,茲以NN 圖形表示如圖4 所示。

1679648350860462.png

圖4

在訓練及預測過(guò)程中,將輸入層X空間,對映到隱藏層H1空間,再對映到隱藏層H2空間,再對映到輸出層的Z空間。在隱藏層H1H2里, 仍然使用X *W+B=Y 公式來(lái)表達其對映關(guān)系;而在輸出層則使用X*W+B=Y 和 Sigmoid(Y) =Z公式來(lái)表達其對映關(guān)系。并計算出在Z空間里的預測值,如圖5。

1679648457986457.png

圖5

此外,在許多情境里,常常需要建立更多個(gè)隱藏層,例如著(zhù)名的ResNet 模型就多達數十個(gè)隱藏層,也是常見(jiàn)的多層深度NN 模型。而基于這種模型的機器學(xué)習,就通稱(chēng)為:深度學(xué)習(Deep Learning)。

5   結束語(yǔ)

以上介紹過(guò)了隱藏層(Hidden Layer) 的觀(guān)念,位于這隱藏層的空間,就簡(jiǎn)稱(chēng)為:H 空間。其正式名稱(chēng)是:隱空間(Latent Space)。例如,在兩層NN 模型里,其中的隱藏層(H 空間) 就是:隱空間。茲再復習一下,隱空間相當于金庸小說(shuō)里武林大俠的< 無(wú)招> 境界。唯有高度掌握< 無(wú)招> 才能解釋千變萬(wàn)化的招術(shù)。君不見(jiàn),在A(yíng)IGC領(lǐng)域里,AE、GAN和Diffusion等新潮技術(shù),都是潛藏空間威力的表現。

(本文來(lái)源于《電子產(chǎn)品世界》雜志2023年3月期)



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>