decision-tree相关内容
我正在尝试训练决策树分类器,以使用scikit-learn提供的功能评估棒球运动员.但是,我想根据专家对我的想法的了解,事先“预先指定"或“强迫"某些分歧(无论如何,都需要合并).例如,我要基于> 0.300的击球平均值来强制进行拆分. 一个相关的问题是-我可以“预先加载"先前训练过的决策树模型,而仅在随后的训练中“更新"它吗?还是decisio树分类器每次运行时都需要重新学习所有规则?我想
..
问题 我正在尝试使用R中的 Tidymodels软件包进行分析.我正在关注以下有关R中决策树学习的教程:- 教程 https://bcullen.rbind.io/post/2020-06-02-tidymodels-decision-tree-learning-in-r/ 我有一个名为FID的数据框()(见下文),其中因变量是频率(数字),而预测变量是:-年(数字),月(
..
我正在运行xgboost进行机器学习,并且在使用 XGBClassifier 成功完成机器学习之后,我想绘制结果图. 我的JSON格式输入数据的一个最小工作示例: [{“年龄":58,“已故":“假",“性":“假"},{“已故":“假",“年龄":59,“性别":“假"},{“性别":“假",“年龄":"68",“已故":“假"},“已故":“假",“年龄":"26",“性别":“假
..
在使用 partykit :: mob()函数之后,我希望能够对显示的图进行个性化设置,以包括标准偏差和回归变量的统计显着性. 以下代码来自 partykit 文档. library("partykit")if(require("mlbench")){##皮马印第安人糖尿病数据数据("PimaIndiansDiabetes",包="mlbench")##用于Logistic回归的简单基本
..
我正在尝试将终端节点的美学编辑为: 增大框的大小,以便在其中列出全名. 如果可能,在存在不相等的回归者名称长度的情况下,对内部文本进行对齐,以生成终端节点的表状视图. 在下面,我使用 gp 选项(fontsize = 10,boxwidth = 10)列出了我的尝试,但我怀疑自己使用的是错误的美学选项./p> mysummary 函数在 但是我想得到类似以下的内容:
..
我正在做一个随机森林实现(用于分类),并且我对文献中提到的树木生长算法有一些疑问. 训练决策树时,有2条准则来停止生长一棵树: 一种.当没有其他可用于拆分节点的功能时,请停止. b.当节点中所有属于同一类的样本都停止. 基于此, 1.考虑在森林里种一棵树.拆分树的节点时,我随机选择 M 个总特征中的 m ,然后从这些总特征中选择 m 功能我发现其中一项功能具有最大的信息获取能力.
..
我正在使用python 3.4中scikit-learn包中的决策树分类器,我想为每个输入数据点获取对应的叶节点ID. 例如,我的输入可能像这样: array([[5.1,3.5,1.4,0.2],[4.9,3.,1.4,0.2],[4.7、3.2、1.3、0.2]]) ,并假设相应的叶节点分别为16、5和45.我希望输出为: leaf_node_id = array([16,5
..
我正在创建决策树.我的数据属于以下类型 X1 | X2 | X3 | ..... X50 | Y_____________________________________1 | 5 | 7 | ..... 0 | 11.5 | 34 | 81 | ..... 0 | 14 | 21 | 21 | .... 1 | 065 | 34 | 23 | ..... 1 | 1 我正在尝试执行以下代
..
我观察到scikit-learn clf.tree_.feature偶尔会返回负值.例如-2.据我了解,clf.tree_.feature应该返回功能的顺序.如果我们有特征名称数组 ['feature_one','feature_two','feature_three'] ,则-2表示 feature_two .我对负索引的使用感到惊讶.用索引1引用 feature_two 会更有意义.(-2是便
..
我正在使用python和R中sklearn的load_iris数据集(在R中简称为“虹膜"). 我使用"gini"索引使用两种语言构建了模型,并且当直接从虹膜数据集中获取测试数据时,我能够正确地测试模型. 但是,如果我给出一个新的数据集作为测试输入,那么对于相同的python和R,它会将其分为不同的类别. 我不确定我在这里遗漏了什么或做错了什么,因此任何指导将不胜感激. 下
..
我已经训练了渐变提升分类器,我想使用显示在此处. 当我尝试时,我得到: AttributeError:"GradientBoostingClassifier"对象没有属性"tree_" 这是因为graphviz_exporter用于
..
我正在使用sklearn将决策树应用于数据集 在Sklearn中,有一个参数可以选择树的深度-dtree = DecisionTreeClassifier(max_depth = 10). 我的问题是max_depth参数如何对模型有所帮助.高/低max_depth如何帮助更准确地预测测试数据? 解决方案 max_depth 顾名思义:允许树生长的最大深度.允许的深度越深,模型
..
我已经使用rpart为数据集构建了决策树. 然后,我将数据分为两部分-训练数据集和测试数据集.使用训练数据为数据集构建了一棵树.我想根据所创建的模型来计算预测的准确性. 我的代码如下所示: 库(rpart)#读取数据数据= read.table(“源")名称(数据)
..
我正在使用R编程语言.我正在学习如何循环过程并将结果存储到表中.对于此示例,我首先生成了一些数据: #load库图书馆(插入符号)库(rpart)#生成数据一个= rnorm(1000,10,10)b = rnorm(1000、10、5)c = rnorm(1000、5、10)组
..
我正在使用R编程语言.我正在尝试学习如何制作一个“混淆矩阵".用于多类变量(例如如何构造混淆多类变量的矩阵). 假设我生成了一些数据并拟合了决策树模型: #load库库(rpart)图书馆(插入符号)#生成数据一个
..
我正在使用R编程语言.我使用"rpart"运行了决策树函数.库: 库(rpart)z.auto
..
我正在使用R编程语言.我使用了"rpart"库并使用一些数据拟合决策树: 来自上一个问题的 #:https://stackoverflow.com/questions/65678552/r-changing-plot-sizes库(rpart)car.test.frame $ Reliability = as.factor(car.test.frame $ Reliability)z.auto
..
基本上我的问题与以下论文有关(仅阅读 1.Introduction 部分, 3.Precision模型结构和部分就足够了> 3.1决策树功能转换,其他所有内容都可以跳过) https://pdfs.semanticscholar.org/daf9/ed5dc6c6bad5367d7fd8561527da. 本文建议,与仅使用决策树或线性分类(不是同时使用二者)相比,在组合决策树+线性分
..
import sys从class_vis导入prettyPicture从prep_terrain_data导入makeTerrainData从sklearn.tree导入DecisionTreeClassifier从sklearn.metrics导入precision_score将numpy导入为np导入pylab为plfeatures_train,labels_train,featureste
..
我正在使用R对称为"d"的数据帧进行分类,其中包含如下结构的数据: 运行 predict 函数时,我还会收到以下警告: 警告消息:'newdata'有4行,但是找到的变量有576666行 我在哪里做错了?! 解决方案 我认为问题是:您应该在预测代码中添加"type ='class'": 预测(fitTree,newdata,type ="class") 尝试以下代码.在此
..