<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 為什么交叉熵和KL散度在作為損失函數時(shí)是近似相等的

為什么交叉熵和KL散度在作為損失函數時(shí)是近似相等的

發(fā)布人:數據派THU 時(shí)間:2022-02-19 來(lái)源:工程師 發(fā)布文章

來(lái)源:DeepHub IMBA

盡管最初的建議使用 KL 散度,但在構建生成對抗網(wǎng)絡(luò ) [1] 時(shí),在損失函數中使用交叉熵是一種常見(jiàn)的做法。這常常給該領(lǐng)域的新手造成混亂。當我們有多個(gè)概率分布并且我們想比較它們之間的關(guān)系時(shí),熵和 KL 散度的概念就會(huì )發(fā)揮作用。


在這里我們將要驗證為什么最小化交叉熵而不是使用 KL 散度會(huì )得到相同的輸出。所以我們首先從正態(tài)分布中抽取兩個(gè)概率分布 p 和 q。如圖 1 所示,兩種分布都不同,但是它們共享一個(gè)事實(shí),即兩者都是從正態(tài)分布中采樣的。
圖片




熵是系統不確定性的度量。直觀(guān)地說(shuō)它是從系統中消除不確定性所需的信息量。系統各種狀態(tài)的概率分布 p 的熵可以計算如下:
圖片


交叉熵


交叉熵是指存在于兩個(gè)概率分布之間的信息量。在這種情況下,分布 p 和 q 的交叉熵可以表述如下:
圖片


KL散度


兩個(gè)概率分布之間的散度是它們之間存在的距離的度量。概率分布 p 和 q 的KL散度( KL-Divergence )可以通過(guò)以下等式測量:
圖片
其中方程右側的第一項是分布 p 的熵,第二項是分布 q 對 p 的期望。在大多數實(shí)際應用中,p 是實(shí)際數據/測量值,而 q 是假設分布。對于 GAN,p 是真實(shí)圖像的概率分布,而 q 是生成的假圖像的概率分布。

驗證


現在讓我們驗證 KL 散度確實(shí)與使用交叉熵分布 p 和 q 相同。我們分別在 python 中計算熵、交叉熵和 KL 散度。
圖片圖片圖片
右側的第二項,即分布 p 的熵可以被認為是一個(gè)常數,常數的導數是0,對反向傳播不會(huì )有影響。因此我們可以得出結論,最小化交叉熵代替 KL 散度會(huì )出現相同的輸出,因此可以近似相等。

總結


在本文中,我們了解了熵、交叉熵和 kl-散度的概念。然后我們回答了為什么這兩個(gè)術(shù)語(yǔ)在深度學(xué)習應用程序中經(jīng)?;Q使用。我們還在 python 中實(shí)現并驗證了這些概念。完整代碼參考這個(gè)地址: https://github.com/azad-academy/kl_cross_entropy.git
引用:[1] Goodfellow, I. et al., Generative adversarial nets. In Advances in  neural information processing systems. pp. 2672–2680, 2014[2]https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence
作者:J. Rafid S., PhD



*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。

電化學(xué)工作站相關(guān)文章:電化學(xué)工作站原理


關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>