classification相关内容
当我们训练神经网络时,我们通常使用梯度下降,它依赖于一个连续的、可微的实值成本函数.例如,最终的成本函数可能采用均方误差.或者换句话说,梯度下降隐含地假设最终目标是回归 - 最小化实值误差度量. 有时我们希望神经网络执行分类 - 给定输入,将其分类为两个或多个离散类别.在这种情况下,用户关心的最终目标是分类准确率 - 正确分类的案例百分比. 但是当我们使用神经网络进行分类时,虽然我们的
..
我有一个像这样的 numpy 数组: [[0.1. 1. ... 0. 0. 1.][0.0. 0. ... 0. 0. 1.][0.0. 1. ... 0. 0. 0.]...[0.0. 0. ... 0. 0. 1.][0.0. 0. ... 0. 0. 1.][0.0. 0. ... 1. 0. 1.]] 我这样转换以减少内存需求: x_val = x_val.astype(np.in
..
在 航班延误数据集. 我使用 pandas 来选择一些列: df = df[["MONTH", "DAY_OF_MONTH", "DAY_OF_WEEK", "ORIGIN", "DEST", "CRS_DEP_TIME", "ARR_DEL15"]] 我用 0 填充 NaN 值: df = df.fillna({'ARR_DEL15': 0}) 确保分类列标有“类别"数据类型:
..
我目前正在将 H2O 用于分类问题数据集.我正在 python 3.6 环境中使用 H2ORandomForestEstimator 对其进行测试.我注意到预测方法的结果给出了 0 到 1 之间的值(我假设这是概率). 在我的数据集中,目标属性是数字,即 True 值为 1,False 值为 0.我确保将类型转换为目标的类别属性,我仍然得到相同的结果. 然后我修改了代码,使用 H2OF
..
机器学习包中的分类器(如 liblinear 和 nltk)提供了一种方法 show_most_informative_features(),这对调试功能非常有帮助: viagra = None ok : spam = 4.5 : 1.0你好 = 真好:垃圾邮件 = 4.5:1.0你好 = 无垃圾邮件 : ok = 3.3 : 1.0伟哥 = 真正的垃圾邮件:好的 = 3.3:1.0赌场 = 真
..
如何将经过训练的朴素贝叶斯分类器保存到磁盘并用它预测数据? 我有以下来自 scikit-learn 网站的示例程序: from sklearn import datasets虹膜 = datasets.load_iris()从 sklearn.naive_bayes 导入 GaussianNBgnb = GaussianNB()y_pred = gnb.fit(iris.data, iri
..
我正在学习神经网络,我在 Keras 中构建了一个简单的神经网络,用于来自 UCI 机器学习存储库的虹膜数据集分类.我使用了一个带有 8 个隐藏节点的隐藏层网络.Adam 优化器以 0.0005 的学习率使用,运行 200 个 Epoch.Softmax 用于输出,损失作为分类交叉熵.我得到以下学习曲线. 如您所见,准确性的学习曲线有很多平坦区域,我不明白为什么.误差似乎在不断减少,但准确性
..
我正在使用 Google 的 TensorFlow 开发深度学习模型.该模型应该用于分割和标记场景. 我正在使用具有 33 个语义的 SiftFlow 数据集类和256x256像素的图像. 因此,在我使用卷积和反卷积的最后一层,我得到了以下张量(数组)[256, 256, 33]. 接下来我想应用 Softmax 并将结果与大小的语义标签进行比较[256, 256]. 问题:我
..
嗨,我用狗和猫这两个类构建了我的 CNN,我已经训练了它,现在我可以对狗和猫图像进行分类.但是如果我想为新的未分类对象引入一个类呢?例如,如果我用花卉图像输入我的网络,网络会给我错误的分类.我想用第三个类为新的未分类对象构建我的网络.但是我怎样才能建立这个第三类.我必须使用哪些图像来获取与狗或猫不同的新对象的类?实际上在我的网络末尾我使用 Softmax,我的代码是使用 tensorflow 开发
..
我正在使用 TensorFlow 的全新对象检测 API 并决定在其他一些公开可用的数据集上对其进行训练. 我碰巧偶然发现了这个杂货数据集,其中包含各种品牌香烟盒上的图片超市货架以及一个文本文件,其中列出了每个图像中每个香烟盒的边界框.数据集中有 10 个主要品牌被标记,所有其他品牌都属于第 11 个“杂项"类别. 我按照他们的教程进行了管理在这个数据集上训练模型.由于处理能力的限制,
..
当试图用sigmoid激活函数得到交叉熵时, loss1 = -tf.reduce_sum(p*tf.log(q), 1) loss2 = tf.reduce_sum(tf.nn.sigmoid_cross_entropy_with_logits(labels=p, logits=logit_q),1) 但是在使用 softmax 激活函数时它们是相同的. 以下是示例代码:
..
我正在学习 TensorFlow 教程,该教程使用“奇怪"格式来上传数据.我想对数据使用 NumPy 或 Pandas 格式,以便我可以将其与 scikit-learn 的结果进行比较. 我从 Kaggle 得到数字识别数据:https://www.kaggle.com/c/digit-recognizer/data. 这里是 TensorFlow 教程中的代码(效果很好): # 来
..
我想在我的一对一中进行 10 倍交叉验证 支持向量机 MATLAB 中的分类. 我试图以某种方式混合这两个相关的答案: libsvm 中的多类分类 MATLAB 中的 10 折 SVM 分类示例 但由于我是 MATLAB 及其语法的新手,所以直到现在我才设法让它工作. 另一方面,我在LibSVM README 文件,我在那里找不到任何相关示例: option -v
..
我正在使用批量梯度下降实现逻辑回归.有两类输入样本将被分类.类是 1 和 0.在训练数据时,我使用了以下 sigmoid 函数: t = 1 ./(1 + exp(-z)); 哪里 z = x*theta 我正在使用以下成本函数来计算成本,以确定何时停止训练. function cost = computeCost(x, y, theta)htheta = sigmoid(x*theta
..
我试图通过阅读在线资源来了解 GMM.我已经使用 K-Means 实现了聚类,并看到了 GMM 与 K-means 的比较. 以下是我的理解,如果我的概念有误,请告诉我: GMM 就像 KNN,在这两种情况下都实现了聚类.但是在 GMM 中,每个集群都有自己独立的均值和协方差.此外,k-means 将数据点硬分配给集群,而在 GMM 中,我们得到一组独立的高斯分布,并且对于每个数据点,
..
我知道交叉验证用于选择好的参数.找到它们后,我需要在没有 -v 选项的情况下重新训练整个数据. 但我面临的问题是,在我使用 -v 选项进行训练后,我获得了交叉验证准确率(例如 85%).没有模型,我看不到 C 和 gamma 的值.在这种情况下,我该如何重新训练? 顺便说一句,我应用了 10 折交叉验证.例如 优化完成,#iter = 138nu = 0.612233obj = -9
..
我有一个大小为 RGB uint8(576,720,3) 的图像,我想将每个像素分类为一组颜色.我已经使用 rgb2lab 从 RGB 空间转换到 LAB 空间,然后移除 L 层,所以它现在是一个由 AB 组成的 double(576,720,2). 现在,我想将其分类为我在另一张图像上训练过的一些颜色,并将它们各自的 AB 表示计算为: 集群 1:-17.7903 -13.1170集群
..
我正在使用具有欧几里德距离的 KNN 对简单数据进行分类.我已经看到了一个例子,说明我想要做的是使用 MATLAB knnsearch 函数完成的,如下所示: 加载fisheririsx = meas(:,3:4);gscatter(x(:,1),x(:,2),species)新点 = [5 1.45];[n,d] = knnsearch(x,newpoint,'k',10);line(x(n,
..
7.3.3 关联(来自内核),第 36 页,UML 上层结构,v2.4.1: 由分类器或关系拥有的关联. 在 UML 中是否有关于分类器拥有的关联和关系拥有的关联的真实示例? 解决方案 Chriss 我希望这个简单的例子有帮助. 猜猜你有一个 Java 类 公共类 A {私人 B b;...} 在 UML 中,您可以将此关系建模为从 A 到 B 的关联:
..
我已经用 R 插入符训练了一个线性回归模型.我现在正在尝试生成一个混淆矩阵并不断收到以下错误: confusionMatrix.default(pred, testing$Final) 中的错误:数据和参考因子必须具有相同的水平数 EnglishMarks
..