Difference between revisions 24568748 and 24679902 on zhwiki

[[决策论]]中 (如[[风险管理]]),'''决策树'''({{lang|en|Decision tree}})由一个决策[[图论|图]]和可能的结果(包括资源成本和风险)组成, 用来创建到达目标的规划。决策树建立并用来辅助决策,是一种特殊的[[树结构]]。决策树是一个利用像树一样的图形或决策模型的决策支持工具,包括随机事件结果,资源代价和实用性。它是一个算法显示的方法。决策树经常在运筹学中使用,特别是在决策分析中,它帮助确定一个能最可能达到目标的策略。如果在实际中,决策不得不在没有完备知识的情况下被在线采用,一个决策树应该平行概率模型作为最佳的选择模型或在线选择模型算法。决策树的另一个使用是作为计算条件概率的描述性手段。

==簡介==
[[機器學習]]中,'''決策樹'''是一個預測模型;他代表的是對象屬性與對象值之間的一種映射關係。樹中每個節點表示某個對象,而每個分叉路徑則代表的某個可能的屬性值,而每個葉結點則對應從根節點到該葉節點所經歷的路徑所表示的對象的值。決策樹僅有單一輸出,若欲有複數輸出,可以建立獨立的決策樹以處理不同輸出。
[[数据挖掘]]中决策树是一种经常要用到的技术,可以用于分析数据,同样也可以用来作预测。

從數據產生決策樹的機器學習技術叫做'''決策樹學習''', 通俗說就是'''決策樹'''。

一个决策树包含三种类型的节点:
1.决策节点——通常用矩形框来表式
2.机会节点——通常用圆圈来表式
3.终结点——通常用三角形来表示
[[Image:Decision-Tree-Elements.png]]

決策樹學習也是[[資料探勘]]中一個普通的方法。在這裡,每個決策樹都表述了一種樹型結構,它由它的分支來對該類型的對象依靠屬性進行分類。每個決策樹可以依靠對源數據庫的分割進行數據測試。這個過程可以遞歸式的對樹進行修剪。  當不能再進行分割或一個單獨的類可以被應用於某一分支時,[[遞歸]]過程就完成了。另外,[[隨機森林]]分類器將許多決策樹結合起來以提升分類的正確率。

決策樹同時也可以依靠計算[[條件概率]]來構造。

決策樹如果依靠數學的計算方法可以取得更加理想的效果。
數據庫已如下所示:
 
    
'''(x, y) = (x1, x2, x3…, xk, y)'''

相關的變量 Y 表示我們嘗試去理解,分類或者更一般化的結果。
其他的變量x1, x2, x3 等則是幫助我們達到目的的變量。

==类型==
决策树有幾種產生方法:
* '''分类树''' 分析是当预计结果可能为两种離散类型(例如男女三個種類的花,输赢等)使用的概念。 
* '''回归树''' 分析是当局域结果可能为实数(例如房价,患者住院时间等)使用的概念。
* '''[[:en:Classification and regression tree|CART]]''' 分析是结合了上述二者的一个概念。CART是Classification And Regression Trees的缩写.
* '''[[:en:CHAID]]''' (Chi-Square Automatic Interaction Detector)

==建立方法==
# 以資料母群體為根節點。
# 作單因子[[變異數分析]]等,找出變異量最大的變項作為分割準則。(決策樹每個葉節點即為一連串法則的分類結果。)
(contracted; show full)[[ja:決定木]]
[[nl:Beslissingsboom]]
[[pl:Drzewo decyzyjne]]
[[pt:Árvore de decisão]]
[[ru:Дерево принятия решений]]
[[th:การเรียนรู้ต้นไม้ตัดสินใจ]]
[[uk:Дерево прийняття рішень]]
[[vi:Cây quyết định]]