decision-tree相关内容
如何在Python中实现DecisionTree的思想。 在TicTacToe游戏中。每个GameState字符串代表当前情况 0为空,1为玩家1移动,2为玩家2移动 因此,3x3板的单个ameState看起来像'000200000' 游戏从头到尾的MovesTree看起来像 ['000200000', '000210000', '002210000', '002211000',
..
我目前有一个决策树,将功能名称显示为X[index],即X[0], X[1], X[2]等。 from sklearn import tree from sklearn.tree import DecisionTreeClassifier dt = DecisionTreeClassifier() dt.fit(X_train, y_train) # plot tree plt.fi
..
我正在学习一个教程,该教程介绍了如何使用pythonv3.6来使用SCRICKIT-LEARN进行带有机器学习的决策树。 以下是代码; import pandas as pd import numpy as np import matplotlib.pyplot as plt import mglearn import graphviz from sklearn.datasets i
..
我正在使用R编程语言。最近,我读到了一种新的决策树算法,称为强化学习树(RLT),它被认为有可能将&Quot;Better&Quot;决策树匹配到数据集。此处提供了该库的文档:https://cran.r-project.org/web/packages/RLT/RLT.pdf 我尝试使用此库对(著名的)虹膜数据集运行分类决策树: library(RLT) data(iris) fit
..
大家晚上好 本文的目标是能够从随机决策树过程中绘制决策树。在运行不同的选项后,我总是得到下一个错误:‘RandomForestVinator’对象没有属性‘tree_’ 非常感谢任何帮助/代码示例/想法或链接,以便能够解决此问题。 在下一组代码中,我是如何绘制常规/常规决策树的。 clf_SMOTE1 = DecisionTreeClassifier(criterion='
..
我正在尝试将决策树模型适用于UCI成人数据集。为此,我构建了以下管道: nominal_features = ['workclass', 'education', 'marital-status', 'occupation', 'relationship', 'race', 'sex', 'native-country'] nominal_transfor
..
当m是特征量,n是样本量时,python acadkit-Learning站点(http://scikit-learn.org/stable/modules/tree.html)声明构建二叉决策树的运行时是mnlog(N)。 我知道log(N)来自分裂后树的平均高度。我理解,在每次拆分时,您必须查看每个功能(M),然后选择最好的一个进行拆分。我知道这是通过为该节点(N)的每个样本计算一个“最
..
这是一个例子,提到matlab的fitctree考虑了特征顺序!为什么? load ionosphere % 包含 X 和 Y 变量Mdl = fitctree(X,Y)视图(MDL,'模式','图表');X1=翻转(X);Mdl1 = fitctree(X1,Y)视图(Mdl1,'模式','图形'); 不同的模型,因此即使处理相同的特征,分类精度也不相同? 解决方案 在您的示例中,X
..
我目前正在处理 MMST 包中的葡萄酒数据.我已将整个数据集拆分为训练和测试,并构建了如下代码所示的树: library("rpart")图书馆(“GBM")图书馆(“随机森林")图书馆(“MMST")数据(葡萄酒)辅助
..
我一直在探索 scikit-learn,使用熵和基尼分裂标准制作决策树,并探索差异. 我的问题是,我怎样才能“打开引擎盖"并确切地找出树在每个级别上分裂的属性以及它们的相关信息值,以便我可以看到两个标准在哪里做出不同的选择? 到目前为止,我已经探索了文档中概述的 9 种方法.他们似乎不允许访问此信息.但确定这些信息是可访问的吗?我正在设想一个包含节点和增益条目的列表或字典. 感谢
..
我正在研究一个 DecisionTreeClassifier 模型,我想了解该模型选择的路径.所以我需要知道什么值赋予了 DecisionTreeClassifier.tree_.value 解决方案 嗯,你说得对,文档实际上对此并不了解(但说实话,我也不确定它的用处). > 让我们用虹膜数据复制文档中的示例: from sklearn.datasets import load_iri
..
我试图了解如何在 sci-kit learn 中为决策树计算特征重要性.之前已经问过这个问题,但我无法重现算法提供的结果. 例如: from StringIO import StringIO从 sklearn.datasets 导入 load_iris从 sklearn.tree 导入 DecisionTreeClassifier从 sklearn.tree.export 导入 expor
..
我在理解 scikit-learn 决策树的结果时有两个问题.例如,这是我的决策树之一: 我的问题是我如何使用这棵树? 第一个问题是:如果一个样本满足条件,那么它去LEFT分支(如果存在),否则它去RIGHT.就我而言,如果 X[7] > 63521.3984 的样本.然后样品将进入绿色框.正确吗? 第二个问题是:当一个样本到达叶子节点时,我如何知道它属于哪个类别?在这个例子中,
..
我正在尝试使用 Python 中的 scikit-learn 设计一个简单的决策树(我在 Windows 操作系统上使用带有 Python 2.7.3 的 Anaconda 的 Ipython Notebook)并将其可视化如下: from pandas import read_csv, DataFrame从 sklearn 导入树从操作系统导入系统data = read_csv('D:/tr
..
我已阅读相关文档 : 类平衡可以通过从每个类中采样相等数量的样本来完成,或者最好通过将每个类的样本权重总和 (sample_weight) 归一化为相同的值. 但是,我仍然不清楚这是如何工作的.如果我将 sample_weight 设置为只有两个可能值的数组,1 和 2,这是否意味着带有 2 的采样频率将是 1 的样本的两倍?我想不出一个实际的例子. 解决方案 一些快速准备:
..
有几篇关于如何将分类数据编码为 Sklearn 决策树的帖子,但从 Sklearn 文档中,我们得到了这些 决策树的一些优点是: (...) 能够处理数字和分类数据.其他技术通常专门用于分析只有一种类型变量的数据集.有关详细信息,请参阅算法. 但是运行下面的脚本 将熊猫导入为 pd从 sklearn.tree 导入 DecisionTreeClassifier数据 = p
..
鉴于上述(树枝)条件存在,我猜测这是条件概率.不过我不是很清楚. 如果您想了解有关所用数据的更多信息或我们如何获得此图表,请访问:http://machinelearningmastery.com/visualize-gradient-boosting-decision-trees-xgboost-python/ 解决方案 属性 leaf 是预测值.换句话说,如果树模型的评估在那个终
..
我一直在阅读决策树和交叉验证,我理解这两个概念.但是,我无法理解交叉验证,因为它与决策树有关.本质上,当数据集相对较小时,交叉验证允许您在训练和测试之间交替以最大化您的错误估计.一个非常简单的算法是这样的: 决定你想要的折叠次数 (k) 将您的数据集细分为 k 折 对训练集使用 k-1 折叠来构建一棵树. 使用测试集来估计有关树中错误的统计信息. 保存您的结果以备后用 重复步骤 3
..
我正在使用在 python sklearn 包中实现的 RandomForestClassifier 来构建二进制分类模型.以下是交叉验证的结果: 折叠 1 : 训练: 164 测试: 40训练精度:0.914634146341测试准确度:0.55折叠 2:训练:163 测试:41训练精度:0.871165644172测试精度:0.707317073171折叠 3:训练:163 测试:41训练精
..
不过我有一个问题.我从某人那里听说,在 R 中,您可以使用额外的包来提取在 RF 中实现的决策规则,我尝试在 python 中搜索相同的东西,但没有运气,如果对如何实现有任何帮助.提前致谢! 解决方案 假设您使用 sklearn RandomForestClassifier,您可以找到作为 .estimators_ 的单个决策树.每棵树将决策节点存储为 tree_ 下的多个 NumPy 数
..