<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 設計應用 > 一文讀懂|什么是機器學(xué)習

一文讀懂|什么是機器學(xué)習

作者: 時(shí)間:2025-02-20 來(lái)源: 收藏

定義

本文引用地址:http://dyxdggzs.com/article/202502/467133.htm

(Machine Learning)本質(zhì)上就是讓計算機自己在數據中學(xué)習規律,并根據所得到的規律對未來(lái)數據進(jìn)行預測。包括如聚類(lèi)、分類(lèi)、決策樹(shù)、貝葉斯、、(Deep Learning)等算法。

機器學(xué)習的基本思路是模仿人類(lèi)學(xué)習行為的過(guò)程,如我們在現實(shí)中的新問(wèn)題一般是通過(guò)經(jīng)驗歸納,總結規律,從而預測未來(lái)的過(guò)程。機器學(xué)習的基本過(guò)程如下:

640-2.png

機器學(xué)習基本過(guò)程

機器學(xué)習發(fā)展簡(jiǎn)史

從機器學(xué)習發(fā)展的過(guò)程上來(lái)說(shuō),其發(fā)展的時(shí)間軸如下所示:

640-3.png

機器學(xué)習發(fā)展歷程

從上世紀50年代的圖靈測試提出、塞繆爾開(kāi)發(fā)的西洋跳棋程序,標志著(zhù)機器學(xué)習正式進(jìn)入發(fā)展期。

· 60年代中到70年代末的發(fā)展幾乎停滯。

· 80年代使用反向傳播(BP)算法訓練的多參數線(xiàn)性規劃(MLP)理念的提出將機器學(xué)習帶入復興時(shí)期。

· 90年代提出的“決策樹(shù)”(ID3算法),再到后來(lái)的支持向量機(SVM)算法,將機器學(xué)習從知識驅動(dòng)轉變?yōu)閿祿寗?dòng)的思路。

· 21世紀初Hinton提出(Deep Learning),使得機器學(xué)習研究又從低迷進(jìn)入蓬勃發(fā)展期。

從2012年開(kāi)始,隨著(zhù)算力提升和海量訓練樣本的支持,(Deep Learning)成為機器學(xué)習研究熱點(diǎn),并帶動(dòng)了產(chǎn)業(yè)界的廣泛應用。

機器學(xué)習分類(lèi)

機器學(xué)習經(jīng)過(guò)幾十年的發(fā)展,衍生出了很多種分類(lèi)方法,這里按學(xué)習模式的不同,可分為監督學(xué)習、半監督學(xué)習、無(wú)監督學(xué)習和強化學(xué)習。

監督學(xué)習

監督學(xué)習(Supervised Learning)是從有標簽的訓練數據中學(xué)習模型,然后對某個(gè)給定的新數據利用模型預測它的標簽。如果分類(lèi)標簽精確度越高,則學(xué)習模型準確度越高,預測結果越精確。

監督學(xué)習主要用于回歸和分類(lèi)。

640-4.png

常見(jiàn)的監督學(xué)習的回歸算法有線(xiàn)性回歸、回歸樹(shù)、K鄰近、Adaboost、等;常見(jiàn)的監督學(xué)習的分類(lèi)算法有樸素貝葉斯、決策樹(shù)、SVM、邏輯回歸、K鄰近、Adaboost、神經(jīng)網(wǎng)絡(luò )等。

半監督學(xué)習

半監督學(xué)習(Semi-Supervised Learning)是利用少量標注數據和大量無(wú)標注數據進(jìn)行學(xué)習的模式,側重于在有監督的分類(lèi)算法中加入無(wú)標記樣本來(lái)實(shí)現半監督分類(lèi)。

常見(jiàn)的半監督學(xué)習算法有Pseudo-Label、Π-Model、Temporal Ensembling、Mean Teacher、VAT、UDA、MixMatch、ReMixMatch、FixMatch等。

無(wú)監督學(xué)習

無(wú)監督學(xué)習(Unsupervised Learning)是從未標注數據中尋找隱含結構的過(guò)程,主要用于關(guān)聯(lián)分析、聚類(lèi)和降維。

常見(jiàn)的無(wú)監督學(xué)習算法有稀疏自編碼(Sparse Auto-Encoder)、主成分分析(Principal Component Analysis, PCA)、K-Means算法(K均值算法)、DBSCAN算法(Density-Based Spatial Clustering of Applications with Noise)、最大期望算法(Expectation-Maximization algorithm, EM)等。

強化學(xué)習

強化學(xué)習(Reinforcement Learning)類(lèi)似于監督學(xué)習,但未使用樣本數據進(jìn)行訓練,是通過(guò)不斷試錯進(jìn)行學(xué)習的模式,常用于機器人避障、棋牌類(lèi)游戲、廣告和推薦等應用場(chǎng)景中。

在強化學(xué)習中,有兩個(gè)可以進(jìn)行交互的對象:智能體(Agnet)和環(huán)境(Environment),還有四個(gè)核心要素:策略(Policy)、回報函數(收益信號,Reward Function)、價(jià)值函數(Value Function)和環(huán)境模型(Environment Model),其中環(huán)境模型是可選的。

為了便于讀者理解,用灰色圓點(diǎn)代表沒(méi)有標簽的數據,其他顏色的圓點(diǎn)代表不同的類(lèi)別有標簽數據。監督學(xué)習、半監督學(xué)習、無(wú)監督學(xué)習、強化學(xué)習的示意圖如下所示:

640-5.png

機器學(xué)習應用之道

機器學(xué)習是將現實(shí)中的問(wèn)題抽象為數學(xué)模型,利用歷史數據對數據模型進(jìn)行訓練,然后基于數據模型對新數據進(jìn)行求解,并將結果再轉為現實(shí)問(wèn)題的答案的過(guò)程。機器學(xué)習一般的應用實(shí)現步驟如下:

· 將現實(shí)問(wèn)題抽象為數學(xué)問(wèn)題

· 數據準備

· 選擇或創(chuàng )建模型

· 模型訓練及評估

· 預測結果

640-6.png

這里我們以Kaggle上的一個(gè)競賽Cats vs. Dogs(貓狗大戰)為例來(lái)進(jìn)行簡(jiǎn)單介紹,感興趣的可親自實(shí)驗。

1. 現實(shí)問(wèn)題抽象為數學(xué)問(wèn)題

現實(shí)問(wèn)題:給定一張圖片,讓計算機判斷是貓還是狗?

數學(xué)問(wèn)題:二分類(lèi)問(wèn)題,1表示分類(lèi)結果是狗,0表示分類(lèi)結果是貓。

2. 數據準備

下載kaggle貓狗數據集解壓后分為3個(gè)文件train.zip、test.zip和sample_submission.csv。

數據下載地址:https://www.kaggle.com/c/dogs-vs-cats

train訓練集包含了25000張貓狗的圖片,貓狗各一半,每張圖片包含圖片本身和圖片名。命名規則根據“type.num.jpg”方式命名。

640-4.jpeg

訓練集示例

test測試集包含了12500張貓狗的圖片,沒(méi)有標定是貓還是狗,每張圖片命名規則根據“num.jpg”命名。

640-5.jpeg

測試集示例

sample_submission.csv需要將最終測試集的測試結果寫(xiě)入.csv文件中。

640-6.jpeg

sample_submission示例

我們將數據分成3個(gè)部分:訓練集(60%)、驗證集(20%)、測試集(20%),用于后面的驗證和評估工作。

640-7.png

3. 選擇模型

機器學(xué)習有很多模型,需要選擇哪種模型,需要根據數據類(lèi)型,樣本數量,問(wèn)題本身綜合考慮。

如本問(wèn)題主要是處理圖像數據,可以考慮使用卷積神經(jīng)網(wǎng)絡(luò )(Convolutional Neural Network, CNN)模型來(lái)實(shí)現二分類(lèi),因為選擇CNN的優(yōu)點(diǎn)之一在于避免了對圖像前期預處理過(guò)程(提取特征等)。

4. 模型訓練及評估

我們預先設定損失函數Loss計算得到的損失值,通過(guò)準確率Accuracy來(lái)評估訓練模型。損失函數LogLoss作為模型評價(jià)指標:

準確率(accuracy)來(lái)衡量算法預測結果的準確程度:

640-9.png

TP(True Positive)是將正類(lèi)預測為正類(lèi)的結果數目

FP(False Positive)是將負類(lèi)預測為正類(lèi)的結果數目

TN(True Negative)是將負類(lèi)預測為負類(lèi)的結果數目

FN(False Negative)是將正類(lèi)預測為負類(lèi)的結果數目

640-10.png

訓練過(guò)中的 loss 和 accuracy

5. 預測結果

訓練好的模型,我們載入一張圖片,進(jìn)行識別,看看識別效果:

640-11.png

機器學(xué)習趨勢分析

機器學(xué)習正真開(kāi)始研究和發(fā)展應該從80年代開(kāi)始,我們借助AMiner平臺,將近些年機器學(xué)習論文進(jìn)行統計分析所生成的發(fā)展趨勢圖如下所示:

640-12.png

可以看出,深度神經(jīng)網(wǎng)絡(luò )(Deep Neural Network)、強化學(xué)習(Reinforcement Learning)、卷積神經(jīng)網(wǎng)絡(luò )(Convolutional Neural Network)、循環(huán)神經(jīng)網(wǎng)絡(luò )(Recurrent Neural Network)、生成模型(Generative Model)、圖像分類(lèi)(Image Classification)、支持向量機(Support Vector Machine)、遷移學(xué)習(Transfer Learning)、主動(dòng)學(xué)習(Active Learning)、特征提?。‵eature Extraction)是機器學(xué)習的熱點(diǎn)研究。

以深度神經(jīng)網(wǎng)絡(luò )、強化學(xué)習為代表的深度學(xué)習相關(guān)的技術(shù)研究熱度上升很快,近幾年仍然是研究熱點(diǎn)。



評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>