<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 消費電子 > 設計應用 > 機器學(xué)習算法實(shí)踐-決策樹(shù)(Decision Tree)

機器學(xué)習算法實(shí)踐-決策樹(shù)(Decision Tree)

作者: 時(shí)間:2018-07-25 來(lái)源:網(wǎng)絡(luò ) 收藏

前言

本文引用地址:http://dyxdggzs.com/article/201807/383875.htm

最近打算系統學(xué)習下機器學(xué)習的基礎算法,避免眼高手低,決定把常用的機器學(xué)習基礎算法都實(shí)現一遍以便加深印象。本文為這系列博客的第一篇,關(guān)于決策樹(shù)(Decision Tree)的算法實(shí)現,文中我將對決策樹(shù)種涉及到的算法進(jìn)行總結并附上自己相關(guān)的實(shí)現代碼。所有算法代碼以及用于相應模型的訓練的數據都會(huì )放到GitHub上(https://github.com/PytLab/MLBox).

本文中我將一步步通過(guò)MLiA的隱形眼鏡處方數集構建決策樹(shù)并使用Graphviz將決策樹(shù)可視化。

正文

決策樹(shù)學(xué)習

決策樹(shù)學(xué)習是根據數據的屬性采用樹(shù)狀結構建立的一種決策模型,可以用此模型解決分類(lèi)和回歸問(wèn)題。常見(jiàn)的算法包括 CART(Classification And Regression Tree), ID3, C4.5等。我們往往根據數據集來(lái)構建一棵決策樹(shù),他的一個(gè)重要任務(wù)就是為了數據中所蘊含的知識信息,并提取出一系列的規則,這些規則也就是樹(shù)結構的創(chuàng )建過(guò)程就是機器學(xué)習的過(guò)程。

決策樹(shù)的結構

以下面一個(gè)簡(jiǎn)單的用于是否買(mǎi)電腦預測的決策樹(shù)為例子,樹(shù)中的內部節點(diǎn)表示某個(gè)屬性,節點(diǎn)引出的分支表示此屬性的所有可能的值,葉子節點(diǎn)表示最終的判斷結果也就是類(lèi)型。

借助可視化工具例如Graphviz,matplotlib的注解等等都可以講我們創(chuàng )建的決策樹(shù)模型可視化并直接被人理解,這是貝葉斯神經(jīng)網(wǎng)絡(luò )等算法沒(méi)有的特性。

決策樹(shù)算法

決策樹(shù)算法主要是指決策樹(shù)進(jìn)行創(chuàng )建中進(jìn)行樹(shù)分裂(劃分數據集)的時(shí)候選取最優(yōu)特征的算法,他的主要目的就是要選取一個(gè)特征能夠將分開(kāi)的數據集盡量的規整,也就是盡可能的純. 最大的原則就是: 將無(wú)序的數據變得更加有序。

這里總結下三個(gè)常用的方法:

1.信息增益(information gain)

2.增益比率(gain ratio)

3.基尼不純度(Gini impurity)

信息增益 (Information gain)

這里涉及到了信息論中的一些概念:某個(gè)事件的信息量,信息熵,信息增益等, 關(guān)于事件信息的通俗解釋可以看知乎上的一個(gè)回答

某個(gè)事件 i 的信息量: 這個(gè)事件發(fā)生的概率的負對數

信息熵就是平均而言一個(gè)事件發(fā)生得到的信息量大小,也就是信息量的期望值

任何一個(gè)序列都可以獲取這個(gè)序列的信息熵,也就是將此序列分類(lèi)后統計每個(gè)類(lèi)型的概率,再用上述公式計算,使用Python實(shí)現如下:

def get_shanno_entropy(self, values):

''' 根據給定列表中的值計算其Shanno Entropy

'''

uniq_vals = set(values)

val_nums = {key: values.count(key) for key in uniq_vals}

probs = [v/len(values) for k, v in val_nums.items()]

entropy = sum([-prob*log2(prob) for prob in probs])

return entropy

信息增益

我們將一組數據集進(jìn)行劃分后,數據的信息熵會(huì )發(fā)生改變,我們可以通過(guò)使用信息熵的計算公式分別計算被劃分的子數據集的信息熵并計算他們的平均值(期望值)來(lái)作為分割后的數據集的信息熵。新的信息熵的相比未劃分數據的信息熵的減小值便是信息增益了. 這里我在最初就理解錯了,于是寫(xiě)出的代碼并不能創(chuàng )建正確的決策樹(shù)。

假設我們將數據集D劃分成kk 份D1,D2,…,Dk,則劃分后的信息熵為:

信息增益便是兩個(gè)信息熵的差值

在這里我主要使用信息增益來(lái)進(jìn)行屬性選擇,具體的實(shí)現代碼如下:

def choose_best_split_feature(self, dataset, classes):

''' 根據信息增益確定最好的劃分數據的特征

:param dataset: 待劃分的數據集

:param classes: 數據集對應的類(lèi)型

:return: 劃分數據的增益最大的屬性索引

'''

base_entropy = self.get_shanno_entropy(classes)

feat_num = len(dataset[0])

entropy_gains = []

for i in range(feat_num):

splited_dict = self.split_dataset(dataset, classes, i)

new_entropy = sum([

len(sub_classes)/len(classes)*self.get_shanno_entropy(sub_classes)

for _, (_, sub_classes) in splited_dict.items()

])

entropy_gains.append(base_entropy - new_entropy)

return entropy_gains.index(max(entropy_gains))

增益比率

增益比率是信息增益方法的一種擴展,是為了克服信息增益帶來(lái)的弱泛化的缺陷。因為按照信息增益選擇,總是會(huì )傾向于選擇分支多的屬性,這樣會(huì )是的每個(gè)子集的信息熵最小。例如給每個(gè)數據添加一個(gè)第一無(wú)二的id值特征,則按照這個(gè)id值進(jìn)行分類(lèi)是獲得信息增益最大的,這樣每個(gè)子集中的信息熵都為0,但是這樣的分類(lèi)便沒(méi)有任何意義,沒(méi)有任何泛化能力,類(lèi)似過(guò)擬合。

因此我們可以通過(guò)引入一個(gè)分裂信息來(lái)找到一個(gè)更合適的衡量數據劃分的標準,即增益比率。

分裂信息的公式表示為:

可見(jiàn)如果數據分的越多,分裂信息的值就會(huì )越大

這時(shí)候把分裂信息的值放到分母上便會(huì )中和信息增益帶來(lái)的弊端。

當然SplitInfo有可能趨近于0,這個(gè)時(shí)候增益比率就會(huì )變得非常大而不可信,因此有時(shí)還需在分母上添加一個(gè)平滑函數,具體的可以參考參考部分列出的文章

基尼不純度(Gini impurity)

基尼不純度的定義:

其中m 表示數據集D 中類(lèi)別的個(gè)數, pi 表示某種類(lèi)型出現的概率??梢?jiàn)當只有一種類(lèi)型的時(shí)候基尼不純度的值為0,此時(shí)不純度最低。

針對劃分成k個(gè)子數據集的數據集的基尼不純度可以通過(guò)如下式子計算:

由此我們可以根據不純度的變化來(lái)選取最有的樹(shù)分裂屬性

樹(shù)分裂

有了選取最佳分裂屬性的算法,下面我們就需要根據選擇的屬性來(lái)將樹(shù)進(jìn)一步的分裂。所謂樹(shù)分裂只不過(guò)是根據選擇的屬性將數據集劃分,然后在總劃分出來(lái)的數據集中再次調用選取屬性的方法選取子數據集的中屬性。實(shí)現的最好方式就是遞歸了.

關(guān)于用什么數據結構來(lái)表示決策樹(shù),在Python中可以使用字典很方便的表示決策樹(shù)的嵌套,一個(gè)樹(shù)的根節點(diǎn)便是屬性,屬性對應的值又是一個(gè)新的字典,其中key為屬性的可能值,value為新的子樹(shù)。

下面是我使用Python實(shí)現的根據數據集創(chuàng )建決策樹(shù):

def create_tree(self, dataset, classes, feat_names):

''' 根據當前數據集遞歸創(chuàng )建決策樹(shù)

:param dataset: 數據集

:param feat_names: 數據集中數據相應的特征名稱(chēng)

:param classes: 數據集中數據相應的類(lèi)型

:param tree: 以字典形式返回決策樹(shù)

'''

# 如果數據集中只有一種類(lèi)型停止樹(shù)分裂

if len(set(classes)) == 1:

return classes[0]

# 如果遍歷完所有特征,返回比例最多的類(lèi)型

if len(feat_names) == 0:

return get_majority(classes)

# 分裂創(chuàng )建新的子樹(shù)

tree = {}

best_feat_idx = self.choose_best_split_feature(dataset, classes)

feature = feat_names[best_feat_idx]

tree[feature] = {}

# 創(chuàng )建用于遞歸創(chuàng )建子樹(shù)的子數據集

sub_feat_names = feat_names[:]

sub_feat_names.pop(best_feat_idx)

splited_dict = self.split_dataset(dataset, classes, best_feat_idx)

for feat_val, (sub_dataset, sub_classes) in splited_dict.items():

tree[feature][feat_val] = self.create_tree(sub_dataset,

sub_classes,

sub_feat_names)

self.tree = tree

self.feat_names = feat_names

return tree

樹(shù)分裂的終止條件有兩個(gè)

一個(gè)是遍歷完所有的屬性

可以看到,在進(jìn)行樹(shù)分裂的時(shí)候,我們的數據集中的數據向量的長(cháng)度是不斷縮短的,當縮短到0時(shí),說(shuō)明數據集已經(jīng)將所有的屬性用盡,便也分裂不下去了, 這時(shí)我們選取最終子數據集中的眾數作為最終的分類(lèi)結果放到葉子節點(diǎn)上.

另一個(gè)是新劃分的數據集中只有一個(gè)類(lèi)型。

若某個(gè)節點(diǎn)所指向的數據集都是同一種類(lèi)型,那自然沒(méi)有必要在分裂下去了即使屬性還沒(méi)有遍歷完.

構建一棵決策樹(shù)

這我用了一下MLiA書(shū)上附帶的隱形眼鏡的數據來(lái)生成一棵決策樹(shù),數據中包含了患者眼部狀況以及醫生推薦的隱形眼鏡類(lèi)型.

首先先導入數據并將數據特征同類(lèi)型分開(kāi)作為訓練數據用于生成決策樹(shù)

from trees import DecisionTreeClassifier

lense_labels = ['age', 'prescript', 'astigmatic', 'tearRate']

X = []

Y = []

with open('lenses.txt', 'r') as f:

for line in f:

comps = line.strip().split('t')

X.append(comps[: -1])

Y.append(comps[-1])

生成決策樹(shù):

clf = DecisionTreeClassifier()

clf.create_tree(X, Y, lense_labels)

查看生成的決策樹(shù):

In [2]: clf.tree

Out[2]:

{'tearRate': {'normal': {'astigmatic': {'no': {'age': {'pre': 'soft',

'presbyopic': {'prescript': {'hyper': 'soft', 'myope': 'no lenses'}},

'young': 'soft'}},

'yes': {'prescript': {'hyper': {'age': {'pre': 'no lenses',

'presbyopic': 'no lenses',

'young': 'hard'}},

'myope': 'hard'}}}},

'reduced': 'no lenses'}}

可視化決策樹(shù)

直接通過(guò)嵌套字典表示決策樹(shù)對人來(lái)說(shuō)不好理解,我們需要借助可視化工具可視化樹(shù)結構,這里我將使用Graphviz來(lái)可視化樹(shù)結構。為此實(shí)現了講字典表示的樹(shù)生成Graphviz Dot文件內容的函數,大致思想就是遞歸獲取整棵樹(shù)的所有節點(diǎn)和連接節點(diǎn)的邊然后將這些節點(diǎn)和邊生成Dot格式的字符串寫(xiě)入文件中并繪圖。

遞歸獲取樹(shù)的節點(diǎn)和邊,其中使用了uuid給每個(gè)節點(diǎn)添加了id屬性以便將相同屬性的節點(diǎn)區分開(kāi).

def get_nodes_edges(self, tree=None, root_node=None):

''' 返回樹(shù)中所有節點(diǎn)和邊

'''

Node = namedtuple('Node', ['id', 'label'])

Edge = namedtuple('Edge', ['start', 'end', 'label'])

if tree is None:

tree = self.tree

if type(tree) is not dict:

return [], []

nodes, edges = [], []

if root_node is None:

label = list(tree.keys())[0]

root_node = Node._make([uuid.uuid4(), label])

nodes.append(root_node)

for edge_label, sub_tree in tree[root_node.label].items():

node_label = list(sub_tree.keys())[0] if type(sub_tree) is dict else sub_tree

sub_node = Node._make([uuid.uuid4(), node_label])

nodes.append(sub_node)

edge = Edge._make([root_node, sub_node, edge_label])

edges.append(edge)

sub_nodes, sub_edges = self.get_nodes_edges(sub_tree, root_node=sub_node)

nodes.extend(sub_nodes)

edges.extend(sub_edges)

return nodes, edges

生成dot文件內容

def dotify(self, tree=None):

''' 獲取樹(shù)的Graphviz Dot文件的內容

'''

if tree is None:

tree = self.tree

content = 'digraph decision_tree {n'

nodes, edges = self.get_nodes_edges(tree)

for node in nodes:

content += ' {} [label={}];n'.format(node.id, node.label)

for edge in edges:

start, label, end = edge.start, edge.label, edge.end

content += ' {} -> {} [label={}];n'.format(start.id, end.id, label)

content += '}'

return content

隱形眼鏡數據生成Dot文件內容如下:

digraph decision_tree {

959b4c0c-1821-446d-94a1-c619c2decfcd [label=call];

18665160-b058-437f-9b2e-05df2eb55661 [label=to];

2eb9860d-d241-45ca-85e6-cbd80fe2ebf7 [label=your];

bcbcc17c-9e2a-4bd4-a039-6e51fde5f8fd [label=areyouunique];

ca091fc7-8a4e-4970-9ec3-485a4628ad29 [label=02073162414];

aac20872-1aac-499d-b2b5-caf0ef56eff3 [label=ham];

18aa8685-a6e8-4d76-bad5-ccea922bb14d [label=spam];

3f7f30b1-4dbb-4459-9f25-358ad3c6d50b [label=spam];

44d1f972-cd97-4636-b6e6-a389bf560656 [label=spam];

7f3c8562-69b5-47a9-8ee4-898bd4b6b506 [label=i];

a6f22325-8841-4a81-bc04-4e7485117aa1 [label=spam];

c181fe42-fd3c-48db-968a-502f8dd462a4 [label=ldn];

51b9477a-0326-4774-8622-24d1d869a283 [label=ham];

16f6aecd-c675-4291-867c-6c64d27eb3fc [label=spam];

adb05303-813a-4fe0-bf98-c319eb70be48 [label=spam];

959b4c0c-1821-446d-94a1-c619c2decfcd -> 18665160-b058-437f-9b2e-05df2eb55661 [label=0];

18665160-b058-437f-9b2e-05df2eb55661 -> 2eb9860d-d241-45ca-85e6-cbd80fe2ebf7 [label=0];

2eb9860d-d241-45ca-85e6-cbd80fe2ebf7 -> bcbcc17c-9e2a-4bd4-a039-6e51fde5f8fd [label=0];

bcbcc17c-9e2a-4bd4-a039-6e51fde5f8fd -> ca091fc7-8a4e-4970-9ec3-485a4628ad29 [label=0];

ca091fc7-8a4e-4970-9ec3-485a4628ad29 -> aac20872-1aac-499d-b2b5-caf0ef56eff3 [label=0];

ca091fc7-8a4e-4970-9ec3-485a4628ad29 -> 18aa8685-a6e8-4d76-bad5-ccea922bb14d [label=1];

bcbcc17c-9e2a-4bd4-a039-6e51fde5f8fd -> 3f7f30b1-4dbb-4459-9f25-358ad3c6d50b [label=1];

2eb9860d-d241-45ca-85e6-cbd80fe2ebf7 -> 44d1f972-cd97-4636-b6e6-a389bf560656 [label=1];

18665160-b058-437f-9b2e-05df2eb55661 -> 7f3c8562-69b5-47a9-8ee4-898bd4b6b506 [label=1];

7f3c8562-69b5-47a9-8ee4-898bd4b6b506 -> a6f22325-8841-4a81-bc04-4e7485117aa1 [label=0];

7f3c8562-69b5-47a9-8ee4-898bd4b6b506 -> c181fe42-fd3c-48db-968a-502f8dd462a4 [label=1];

c181fe42-fd3c-48db-968a-502f8dd462a4 -> 51b9477a-0326-4774-8622-24d1d869a283 [label=0];

c181fe42-fd3c-48db-968a-502f8dd462a4 -> 16f6aecd-c675-4291-867c-6c64d27eb3fc [label=1];

959b4c0c-1821-446d-94a1-c619c2decfcd -> adb05303-813a-4fe0-bf98-c319eb70be48 [label=1];

}

這樣我們便可以使用Graphviz將決策樹(shù)繪制出來(lái)

with open('lenses.dot', 'w') as f:

dot = clf.tree.dotify()

f.write(dot)

dot -Tgif lenses.dot -o lenses.gif

效果如下:

使用生成的決策樹(shù)進(jìn)行分類(lèi)

對未知數據進(jìn)行預測,主要是根據樹(shù)中的節點(diǎn)遞歸的找到葉子節點(diǎn)即可。z這里可以通過(guò)為遞歸進(jìn)行優(yōu)化,代碼實(shí)現如下:

def classify(self, data_vect, feat_names=None, tree=None):

''' 根據構建的決策樹(shù)對數據進(jìn)行分類(lèi)

'''

if tree is None:

tree = self.tree

if feat_names is None:

feat_names = self.feat_names

# Recursive base case.

if type(tree) is not dict:

return tree

feature = list(tree.keys())[0]

value = data_vect[feat_names.index(feature)]

sub_tree = tree[feature][value]

return self.classify(feat_names, data_vect, sub_tree)

決策樹(shù)的存儲

通過(guò)字典表示決策樹(shù),這樣我們可以通過(guò)內置的pickle或者json模塊將其存儲到硬盤(pán)上,同時(shí)也可以從硬盤(pán)中讀取樹(shù)結構,這樣在數據集很大的時(shí)候可以節省構建決策樹(shù)的時(shí)間.

def dump_tree(self, filename, tree=None):

''' 存儲決策樹(shù)

'''

if tree is None:

tree = self.tree

with open(filename, 'w') as f:

pickle.dump(tree, f)

def load_tree(self, filename):

''' 加載樹(shù)結構

'''

with open(filename, 'r') as f:

tree = pickle.load(f)

self.tree = tree

return tree

總結

本文一步步實(shí)現了決策樹(shù)的實(shí)現, 其中使用了ID3算法確定最佳劃分屬性,并通過(guò)Graphviz可視化了構建的決策樹(shù)。



關(guān)鍵詞:

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>