隨機過(guò)程在數據科學(xué)和深度學(xué)習中有哪些應用?
隱馬爾科夫模型
本文引用地址:http://dyxdggzs.com/article/201908/403911.htm隱馬爾可夫模型都是關(guān)于認識序列信號的。它們在數據科學(xué)領(lǐng)域有大量應用,例如:
●計算生物學(xué)。
●寫(xiě)作/語(yǔ)音識別。
●自然語(yǔ)言處理(NLP)。
●強化學(xué)習
HMMs是一種概率圖形模型,用于從一組可觀(guān)察狀態(tài)預測隱藏(未知)狀態(tài)序列。
這類(lèi)模型遵循馬爾可夫過(guò)程假設:
“鑒于我們知道現在,所以未來(lái)是獨立于過(guò)去的"
因此,在處理隱馬爾可夫模型時(shí),我們只需要知道我們的當前狀態(tài),以便預測下一個(gè)狀態(tài)(我們不需要任何關(guān)于前一個(gè)狀態(tài)的信息)。
要使用HMMs進(jìn)行預測,我們只需要計算隱藏狀態(tài)的聯(lián)合概率,然后選擇產(chǎn)生最高概率(最有可能發(fā)生)的序列。
為了計算聯(lián)合概率,我們需要以下三種信息:
●初始狀態(tài):任意一個(gè)隱藏狀態(tài)下開(kāi)始序列的初始概率。
●轉移概率:從一個(gè)隱藏狀態(tài)轉移到另一個(gè)隱藏狀態(tài)的概率。
●發(fā)射概率:從隱藏狀態(tài)移動(dòng)到觀(guān)測狀態(tài)的概率
舉個(gè)簡(jiǎn)單的例子,假設我們正試圖根據一群人的穿著(zhù)來(lái)預測明天的天氣是什么(圖5)。
在這種例子中,不同類(lèi)型的天氣將成為我們的隱藏狀態(tài)。晴天刮風(fēng)下雨和穿的衣服類(lèi)型將是我們可以觀(guān)察到的狀態(tài)(如,t恤、長(cháng)褲和夾克)。初始狀態(tài)是這個(gè)序列的起點(diǎn)。轉換概率,表示的是從一種天氣轉換到另一種天氣的可能性。最后,發(fā)射概率是根據前一天的天氣,某人穿某件衣服的概率。
圖5:隱馬爾可夫模型示例[6]
使用隱馬爾可夫模型的一個(gè)主要問(wèn)題是,隨著(zhù)狀態(tài)數的增加,概率和可能狀態(tài)的數量呈指數增長(cháng)。為了解決這個(gè)問(wèn)題,可以使用維特比算法。
如果您對使用HMMs和生物學(xué)中的Viterbi算法的實(shí)際代碼示例感興趣,可以在我的Github代碼庫中找到它。
從機器學(xué)習的角度來(lái)看,觀(guān)察值組成了我們的訓練數據,隱藏狀態(tài)的數量組成了我們要調優(yōu)的超參數。
機器學(xué)習中HMMs最常見(jiàn)的應用之一是agent-based情景,如強化學(xué)習(圖6)。
圖6:強化學(xué)習[7]中的HMMs
高斯過(guò)程
高斯過(guò)程是一類(lèi)完全依賴(lài)自協(xié)方差函數的平穩零均值隨機過(guò)程。這類(lèi)模型可用于回歸和分類(lèi)任務(wù)。
高斯過(guò)程最大的優(yōu)點(diǎn)之一是,它們可以提供關(guān)于不確定性的估計,例如,給我們一個(gè)算法確定某個(gè)項是否屬于某個(gè)類(lèi)的確定性估計。
為了處理嵌入一定程度上的不確定性的情況,通常使用概率分布。
一個(gè)離散概率分布的簡(jiǎn)單例子是擲骰子。
想象一下,現在你的一個(gè)朋友挑戰你擲骰子,你擲了50個(gè)trows。在擲骰子公平的情況下,我們期望6個(gè)面中每個(gè)面出現的概率相同(各為1/6)。如圖7所示。
圖7:擲骰子公平的概率分布
無(wú)論如何,你玩得越多,你就越可以看到到骰子總是落在相同的面上。此時(shí),您開(kāi)始考慮骰子可能是不公平的,因此您改變了關(guān)于概率分布的最初信念(圖8)。
圖8:不公平骰子的概率分布
這個(gè)過(guò)程被稱(chēng)為貝葉斯推理。
貝葉斯推理是我們在獲得新證據的基礎上更新自己對世界的認知的過(guò)程。
我們從一個(gè)先前的信念開(kāi)始,一旦我們用全新的信息更新它,我們就構建了一個(gè)后驗信念。這種推理同樣適用于離散分布和連續分布。
因此,高斯過(guò)程允許我們描述概率分布,一旦我們收集到新的訓練數據,我們就可以使用貝葉斯法則(圖9)更新分布。
圖9:貝葉斯法則[8]
自回歸移動(dòng)平均過(guò)程
自回歸移動(dòng)平均(ARMA)過(guò)程是一類(lèi)非常重要的分析時(shí)間序列的隨機過(guò)程。ARMA模型的特點(diǎn)是它們的自協(xié)方差函數只依賴(lài)于有限數量的未知參數(對于高斯過(guò)程是不可能的)。
縮略詞ARMA可以分為兩個(gè)主要部分:
●自回歸=模型利用了預先定義的滯后觀(guān)測值與當前滯后觀(guān)測值之間的聯(lián)系。
●移動(dòng)平均=模型利用了殘差與觀(guān)測值之間的關(guān)系。
ARMA模型利用兩個(gè)主要參數(p, q),分別為:
●p=滯后觀(guān)測次數。
●q=移動(dòng)平均窗口的大小。
ARMA過(guò)程假設一個(gè)時(shí)間序列在一個(gè)常數均值附近均勻波動(dòng)。如果我們試圖分析一個(gè)不遵循這種模式的時(shí)間序列,那么這個(gè)序列將需要被差分,直到分割后的序列具有平穩性。
參考文獻
[1] M C Escher, “Smaller and Smaller” — 1956. https://www.etsy.com/listing/288848445/m-c-escher-print-escher-art-smaller-and
[2] 機器學(xué)習中大數定律的簡(jiǎn)要介紹。Machine Learning Mastery, Jason Brownlee. https://machinelearningmastery.com/a-gentle-introduction-to-the-law-of-large-numbers-in-machine-learning/
[3] 正態(tài)分布,二項分布,泊松分布 , Make Me Analyst. http://makemeanalyst.com/wp-content/uploads/2017/05/Poisson-Distribution-Formula.png
[4] 通用維基百科. Accessed at: https://commons.wikimedia.org/wiki/File:Random_walk_25000.gif
[5] 數軸是什么?Mathematics Monste. https://www.mathematics-monster.com/lessons/number_line.html
[6] 機器學(xué)習算法: SD (σ)- 貝葉斯算法. Sagi Shaier, Medium. https://towardsdatascience.com/ml-algorithms-one-sd-%CF%83-bayesian-algorithms-b59785da792a
[7] DeepMind的人工智能正在自學(xué)跑酷,結果非常令人驚訝。The Verge, James Vincent. https://www.theverge.com/tldr/2017/7/10/15946542/deepmind-parkour-agent-reinforcement-learning
[8] 為數據科學(xué)專(zhuān)業(yè)人員寫(xiě)的強大的貝葉斯定理介紹。KHYATI MAHENDRU, Analytics Vidhya. Accessed at: https://www.analyticsvidhya.com/blog/2019/06/introduction-powerful-bayes-theorem-data-science/
via https://towardsdatascience.com/stochastic-processes-analysis-f0a116999e4
本文轉自雷鋒網(wǎng),如需轉載請至雷鋒網(wǎng)官網(wǎng)申請授權。
評論