Machine learning 作者能否';“独一无二”;“文体”;是否用于确定他/她是文本作者?

让我们想象一下,我有两个英文文本是由同一个人写的。 是否可以应用一些马尔可夫链算法来分析每种方法:根据统计数据创建某种指纹,并比较从不同文本中获得的指纹? 比如说,我们有一个有100篇课文的图书馆。有些人写了第一篇文章,有些人也写了第二篇,我们需要通过分析他/她的写作风格来猜测是哪一篇。 有没有已知的算法可以做到这一点?这里可以应用马尔可夫链吗?您可以从访问网站开始。有大量关于分类和聚类的文献。基本上,您希望运行一个聚类算法,然后希望由“哪个作者”决定聚类。这绝对是可能的,事实上,通过文本或文本

Machine learning 如何理解Mallet中主题模型类的输出?

在我尝试代码示例时,我真的很想理解代码输出的含义 首先,在运行过程中,它给出: Coded LDA: 10 topics, 4 topic bits, 1111 topic mask max tokens: 148 total tokens: 1333 <10> LL/token: -9,24097 <20> LL/token: -9,1026 <30> LL/token: -8,95386 <40> LL/token: -8,75353 0

Machine learning 将实用程序指定给本地州时,很难指定长期视图

我目前正在阅读Wiley和Woolridge关于多代理系统的介绍,我希望有人能向我澄清以下内容。在谈到效用函数时,作者指出: 实用程序是表示状态“良好”程度的数值:实用程序越高越好 然后,代理的任务是实现效用最大化的状态——我们不向代理指定如何实现这一点。在这种方法中,任务规范只是一个函数 u:E -> R 它将实际值与每个环境状态关联 给定这样一个性能度量,我们就可以用几种不同的方式定义某个特定环境中代理的总体效用。一种(悲观的)方法是将代理的效用定义为代理可能遇到的最坏状态的效用;

Machine learning 如何根据TPR、FPR和精度计算F-measure

有人能帮我吗 我已经给出了TPR(真阳性率)和(假阳性率)以及准确度。根据给定的数字,是否有任何方法来计算f-度量、精度和召回率 假设tpr=0.93 FPR=0.17,准确度=0.93。f-measure的值是多少 谢谢,F需要计算精确性和召回率(真阳性率) 在混淆矩阵中,您有四个变量(TP、FP、FN、TN),由于您只需要比率,因此您有TP+FP+FN+TN=1,这实际上使只有3个未知变量。现在你们有了TPR,FPR,精度,你们可以有3个独立的方程: TP/(TP+FN) = 0.93 FP

Machine learning WEKA中的多类回归

假设我有一个四类问题,其连续输出值在相同的范围内。(假设在10-50范围内)。如果我将所有类数据(训练数据)放在一个.csv文件中(对于WEKA),每个训练样本都有连续输出…那么我的回归模型将如何告诉我获得的输出(连续)是针对哪个类的???我想同时量化多类输入数据我现在仍然完全确定您的问题是什么,但我假设您有四个数据集,每个数据集中都有一个回归问题,您希望对累积数据集执行回归,并期望模型不仅恢复回归值,还恢复“来源” 在原始实现中(仅连接数据),这是不可能的,因为您将丢失有关数据来源的任何信息

Machine learning 输出具有外部非线性函数的神经网络

我有兴趣在一个可能不寻常的环境中尝试NN NN的输入是一个向量。输出也是一个向量。然而,训练数据和误差不是直接在该输出向量上计算的,而是该输出向量的(非线性)函数。所以在每个历元,我需要激活NN,找到一个输出向量,将它应用到我的(外部)非线性函数中,计算一个新的输出向量。然而,这个新的输出向量的长度为1,并且仅基于这个单一输出计算误差 一些问题: 这是NN可能有用的事情吗 这是一个众所周知的结构吗 有什么办法吗 原则上是的 是的,这就是softmax装置的功能。它接受输出层的激活,并从中计算单个

Machine learning 在Logistic回归中,sigmoid函数真的重要吗?

我实现了一个二元逻辑回归分类器。为了玩游戏,我用tanh替换了sigmoid函数(1/1+exp(-z))。结果完全相同,分类阈值为0.5,即使tanh在{1,1}范围内,而sigmoid在{0,1}范围内 我们使用sigmoid函数真的重要吗?或者像tanh这样的可微非线性函数能起作用吗 谢谢。函数的范围应该是{0,1},因为它代表了结果的概率。您是否在训练中也更改了函数,或者您只是使用了相同的训练方法,然后将乙状结肠更改为tanh 我认为很可能发生的情况如下。看看sigmoid和tanh的图

Machine learning LibSvm使用javaapi添加特性

我有一个文本,我想通过使用JavaAPI添加特性来进行培训。查看示例,构建训练集的主要类是svm_问题。它看起来像svm_节点代表一个特征(索引是特征,值是特征的权重) 我所做的是有一个映射(只是为了简化问题),它在特性和索引之间保持关联。对于我的每个权重>示例,我确实创建了一个新节点: svm_node currentNode = new svm_node(); int index = feature.getIndexInMap(); double value = feature.

Machine learning kmeans是可重复的吗?

我想知道,如果初始质心点是随机选择的,那么对于完全相同的数据集,我们是否得到大致相同的质心点 我正在编写一个测试kmeans程序,它们似乎不匹配。我想知道我所做的是否正确。不,这不是保证 考虑一个简单的例子,2-均值有4个点:1,1,-1,1,1,-1,-1二维平面上的一个正方形 然后两个质心可能是{0,1,0,-1}或{1,0,-1,0},这两个结果非常不同。k-means算法需要对质心位置进行一些初始化。对于大多数算法,这些质心是用一些方法随机初始化的,比如福吉法或随机分割法,这意味着算法的

Machine learning 神经网络中保持随机初始权值的ADADELTA算法

我正在尝试使用ADADELTA算法在MNIST数据集上训练一个2隐层tanh神经网络 以下是我的设置参数: Tanh激活函数 2个隐藏层,784个单元(与输入单元的数量相同) 我正在使用输出层上具有交叉熵损失的softmax 我随机初始化了fanin为~15的权重,以及标准偏差为1/sqrt(15)的高斯分布权重 我使用的是10%的小批量,50%的退出率 我使用的是ADADELTA的默认参数(rho=0.95,epsilon=1e-6) 我已经检查了我的导数和自动微分 如果我运行ADADEL

Machine learning Scikit学习-具有自定义代价和梯度函数的随机梯度下降

我正在实施矩阵分解,以预测评论员对电影的评价。数据集取自MovieLen()。这是一个研究得很好的推荐问题,所以我只是为了学习而实现了这个矩阵分解方法 我将成本函数建模为训练数据集中预测评分和实际评分之间的均方根误差。我使用scipy.optimize.minimize函数(我使用共轭梯度下降法)来计算电影分级矩阵的系数,但是这个优化工具太慢了,即使对于只有100K个项目的数据集也是如此。我计划用2000万个项目来扩展我的数据集算法 我一直在寻找一个基于Python的随机梯度下降解决方案,但是我

Machine learning 如何在线性感知器中使用权重向量绘制直线?

我理解如下: 在二维空间中,每个数据点有两个特征:x和y。 二维空间中的权重向量包含3个值[bias,w0,w1],可以重写为[w0,w1,w2]。 每个数据点都需要一个人工坐标[1,x,y],用于计算其与权重向量之间的点积 用于更新每个误分类点的权重向量的学习规则为w:=w+yn*xn 我的问题是:如何从权重向量w=[A,B,C]中推导出两点来绘制决策边界 我知道A+Bx+Cy=0是一般形式的线性方程(A,B,C可以从权重向量中提取),但我不知道如何绘制它 提前感谢。画线的最佳方法是在显示轴上

Machine learning 数据复杂性度量

当我们努力解释机器学习算法的准确性时,许多作者建议从数据的复杂程度开始 我正在研究数据复杂性度量,例如:类可分性、重叠和离群值度量,它们会影响分类器的性能 例如,若类是更可分离的,那个么分类器的精度也会提高,并且分类器花费的时间更少 我想计算数据集中每个数据点的离群值度量,并将这些度量结合起来,为数据集中的离群值创建一个度量。如何使用k近邻或k均值聚类技术计算离群值。 Thanx提前..使用什么语言和框架?我想这个问题属于我们,我们有一个不同类别的数据集,比如:医疗、软件工程、机械数据集等等。语

Machine learning 什么时候单克比双克(或更高的N克)更合适?

我正在阅读有关n-gram的文章,我想知道在实践中是否有一种情况,即使用uni-gram优于bi-gram(或更高的n-gram)。据我所知,N越大,计算概率和建立向量空间的复杂性就越大。但除此之外,是否还有其他原因(例如与数据类型相关) 通常,n-grams大于1更好,因为它通常包含更多关于上下文的信息。然而,有时,除了二元图和三元图之外,还计算单元图,并将其用作备用。这也是很有用的,例如,如果你想在搜索单字时获得比精确性更高的回忆率,那么你正在搜索动词“make”的所有可能用法 以统计机器翻

Machine learning 点击收入预测模型

我正在尝试建立一个电子商务模型,预测通过在线营销渠道(如谷歌购物)点击的收入。点击的目标是产品详细信息页面,因此我的培训数据包括产品详细信息,如:价格、交付时间、类别、制造商。每一次历史点击都会带来收入。问题是,超过95%的点击量的收入等于零 历史数据如下所示: 点击|标识|制造商|类别|交货|时间|价格|收入 1 | man1 | cat1 | 24 | 100 | 0 2 | man1 | cat1 | 24 | 100 | 0 3 | man1 | cat1 | 24 | 100 | 0

Machine learning 如何从多组数据中训练神经网络?

我有很多相关的数据,我想用来训练神经网络。数据来自于飞行一定距离的赛鸽。输入可以是体重、年龄、大小、翼展、性别、距离、时间等,比如说每分钟采样一次。 我试图预测一只鸽子在给定输入的情况下完成一场比赛的典型时间。 输入数据将标准化,以提高网络效率。 一行典型的数据可能看起来像体重、年龄、大小、翼展、性别、距离和时间 -1.34, -1.23, -0.49, 0.47, 0.97, -1, -1.44, -0.75 随着比赛的进行,会有很多这样的赛线,最后每只鸽子都会有一个计时结果。3小时5分钟。

Machine learning 化学过程的LSTM神经网络?

我有以下数据集 用于炼油厂的化学工艺。它由5x5个输入向量组成,每个向量每分钟采样一次。输出是整个过程的结果,每5分钟采样一次 我的结论是,输出(黄色)高度依赖于过去及时的输入向量。最近,我开始研究LSTM,并尝试在Python和Torch上了解它们 然而,我不知道我应该如何准备我的数据集,使我的LSTM能够处理它,并在使用新的输入向量进行测试时向我展示未来的预测 是否有一种直接的方式来相应地预处理我的数据集 EDIT1:事实上,我发现了一个很棒的关于培训LSTM自然语言处理的博客。长话短说,L

Machine learning Tensorflow中LSTM单元的访问权

如何获得LSTM单元格的权重。我想将其权重分配给另一个网络中的另一个LSTM单元,即复制内容 如果这是正常的权重,我会执行sess.run(w1.assign(w2),…)您可以使用函数执行此操作。 您只需要这些变量的名称 您可以通过运行以下操作来获取它们: for v in tf.global_variables(): print(v.name) 你能把你到目前为止的资料粘贴进去吗?考虑阅读和修改你的问题:

Machine learning 根据给定的表,哪个分类器最好

由于是分类,我知道这不是判断最佳精度的正确方法,而是最佳分类器。我能知道Random Forest和adaboost中的最佳分类器吗?简短的回答是“无”。冗长的回答是“问题是无效的,因此你不能提供任何明确的答案”。这里缺少的一点是它对您的意义,即某些东西是最好的,您必须明确说明您所面临的问题。一旦您这样做了,您就可以设计一个度量它的评估指标,并选择最大化它的分类器 例如,如果问题是“我假设我的培训数据与我将来感兴趣的数据来自同一个来源。此外,它是以IID方式创建的。我想最大限度地提高未来正确分类

Machine learning 使用Keras';斯格鲁

我会尽可能清楚地解释我的问题 所以,我尝试使用GRU学习评论的产品信息。我有大约一百万篇评论,都转换成了300维向量。这些评审向量按其各自的产品进行分组。现在,我有一个培训集,里面有一百万条评论,属于同一个产品的评论会一个接一个 下面是我的GRU模型 X_train = numpy.reshape(X_train, (X_train.shape[0], 1, X_train.shape[1])) Y_train = np_utils.to_categorical(encode

Machine learning 恢复以保持训练不使用tensorflow

我需要保存并恢复图表,以保持从最后一个检查点开始的训练,但不知何故,它不起作用 我使用saver=tf.train.saver()保存模型。以及: with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess: # Initializing saver sess.run(tf.global_variables_initializer()) save_path = saver.save(s

Machine learning 文本挖掘中的特征数

我试图建立一个基于文本挖掘的预测模型。我不知道应该在模型中设置多少功能。我的分析中有1000个文档(所以语料库大约需要700个)。语料库中的术语数量约为20000个,因此它超过了文档的数量(P>>N)。有这么多特征有什么意义 HashingTF方法中的特征数应该高于语料库中的术语总数?或者我应该把它缩小(比如512个功能?) 我有点困惑。假设你说的只是使用Unigram作为特性,那么我们想要p>p(维度诅咒)。你可以用一个大p和L1 reg。如果数据集很小,您可以全部尝试。

Machine learning 准确度损失值到底意味着什么?如何与输入数据关联?

当模型经过训练后,我得到了以下精度 Using TensorFlow backend. Found 2 images belonging to 2 classes. Epoch 1/1 3/3 [==============================] - 0s - loss: 5.3142 - acc: 0.6667 5.3142和0.6667到底意味着什么?如何与此输入数据关联?这取决于您使用的模型。这里定义了损失函数和准确度度量。我使用二进制交叉熵作为损失函数,adam作为优化器

Machine learning 有没有一种机器学习算法可以用成对的整数集进行训练?

[编辑注意:请将此问题移至交叉验证社区] 例如,训练集由积极的例子组成 (s1,s2),其中s1是一个整数集,s2是另一个整数集。 s1和s2可能具有不同的基数。 反面的例子是相似的:整数集的成对(s3,s4)。似乎主要的问题是从输入数据中实际提取特征。一旦您将成对的集合编码为向量,您几乎可以使用任何您想要的算法 最明显的方法是使用整数作为单词的方法(具体来说,似乎适合分别对两个集合进行编码,然后将它们的术语频率矩阵串联起来) 当然,您必须接受要么在开始时给出可能的整数范围,要么某些整数没有被编

Machine learning 如何使用未标记的图像训练CNN?

我正在尝试使用CNN谷歌网《盗梦空间》培训图像分类员。我有一些带标签的图片(每个类别cca 1000)和更多的未标记图片。到目前为止,我只使用标记的图像,我得到了很好的准确性。我只是不确定是否有可能使用某种未标记的图像 关于它们的唯一信息是,在一个目录中总是有一些图像(1-10)。和一个目录中的图像属于同一类 谢谢看一看。它是一个方便的函数,可以从与类对应的子目录中读取图像 即使你不使用Keras进行训练,你也可以做一次模拟运行,为你的未标记图像生成标签,然后在你的神经网络架构中使用这些标签 您

Machine learning 解包后如何使用Keras模型预测产量

我可以将我的RNN模型解包到我的网站上,但是我很难使用列表作为输入(只包含一个名为text的字符串,但需要是一个list以对我收集的数据进行预处理),我遇到了以下问题: ValueError: Error when checking : expected embedding_1_input to have shape (None, 72) but got array with shape (1, 690) 以下是我目前如何使用模型进行预处理和预测: tokenizer = Tokenizer

Machine learning 连接后的特征映射

我有一个初学者的问题,但我想不出来 输入图像为512*512。在输入图像上执行并连接两个单独的操作: 3*3卷积,步幅2有13个滤波器 最大池操作 连接后的结果似乎是16个特征贴图,我不太确定如何连接 任何建议、答案或阅读材料都会非常有用。如果一个接一个地应用这些层,输出将不会有16功能图,而是13。但是如果它们并行进行,那么如果输入通道的数量C=3,这是相当可能的 让我们一层一层地看一遍: 输入是(B,512,512,3),其中B是批量大小 卷积层将此输入张量转换为(B,256,256,13

Machine learning 对于具有两个以上潜在值的分类变量,如何计算其准确性度量和F分数?

我有一个分类变量,比如说可能有值的建筑类型(住宅、商业、工业、特殊建筑)。我将支持向量机应用于数据集,并尝试根据建筑类型预测人口类别(高、中、低)的值。我的案例的准确度和F分数是如何计算的?对于一个值不止一个的分类变量,准确度度量是一个很好的度量吗?无论有多少个类别用于计算准确度或F1分数准确度=#正确预测/#总预测(请注意,这不看类别,只看总数)F1分数也来自真/假阳性/阴性,这是每堂课成绩的汇总数字。这不是直接回答你的问题,但你可能还想打印一个混淆矩阵,将所有四堂课都包括在一起。通过这种方式

Machine learning 梯度下降倍频程码

需要帮助完成此功能。尝试查找derJ时出错: error: X(0,_): subscripts must be either integers 1 to (2^63)-1 or logicals 我的代码: function [theta, J_history] = gradientDescent (X, y, theta, alpha, num_iters) m = length (y); % number of training examples J_

Machine learning 如何在Keras模型中拆分输入

我试图在keras中做一些非常简单的事情,但没有成功。我有一个输入X,大小(?,1452,1)。我要做的就是把这个输入分成1450和2的向量,然后在网络中分别处理它们。我试过: X1 = X[:, 1450:1452, :] X2 = X[:, 0:1450, :] 然后我想做什么就做什么。它编译得很好,直到我创建模型的那一行。我得到一个错误,说我的张量对象没有任何名为\u keras\u history的属性,即使它有。我猜keras将X1和X2转换成正则张量。因此,我尝试通过以下方式使用

Machine learning 特征分布几乎是正态的:这对我的ML模型意味着什么?

我的练习说明说:特性3的分布提示了数据是如何生成的。我试图理解在我的ETL或ML模型的其余部分应该从中推断出什么 我已经绘制了此功能的Q-Q图。分布似乎相当正常。对于我的ETL或ML模型的其余部分,我可以从这些信息中推断出什么呢?大多数机器学习模型都假设有一个底层数据分布,以便它们能够正常工作 所以,回到你的问题,有一些ML技术假设输入它们的数据是正态(或高斯)分布的。这些是Gaussian-naive-Bayes,基于最小二乘(回归)的模型,LDA,QDA。因此,您所指的语句意味着您的数据是使

Machine learning 机器学习中的梯度下降算法

我是机器学习的初学者。我在梯度下降算法方面有问题。在下面提到的代码中,我的疑问是 x的第一次迭代值为1 x的第二次迭代值为2 x的第三次迭代值为3 x的第四次迭代值为4 x的第五次迭代值为5 那么迭代6到9999的x值是多少 import numpy as np import matplotlib.pyplot as plt %matplotlib inline def gradient_descent(x,y): m_curr = b_curr = 0 rate = 0

Machine learning F1成绩不是精确性和召回率的调和平均值的原因是什么

[![在此处输入图像描述][1][1]F1成绩不是精确性和召回率的调和平均值,且多等级的宏观平均值加权相等,这是什么原因?我的数据集不平衡,预测有偏差。A计算每个标签的指标并找到它们的未加权平均值。这意味着它不考虑类的不平衡性,而a计算每个标签的度量,并根据每个标签的实例数找到它们的平均权重。因此,它解释了班级不平衡,并且分数不在精确性和回忆性之间 有关加权F1的示例,请参考此答案。A计算每个标签的指标并找到其未加权平均值。这意味着它不考虑类的不平衡性,而a计算每个标签的度量,并根据每个标签的实

Machine learning 执行分层群集时出现内存错误

我有一个很大的数据集(207989,23),我现在正试图在一列上应用分层聚类来测试它是否适合我手头的任务 我所尝试的: import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn import preprocessing data = pd.read_csv('gpmd.csv', header = 0) X = data.loc[:, ['ContextID', 'BacksGas_

Machine learning 深度方向滤波器与正则卷积神经网络

当涉及深度神经网络和卷积神经网络时,我对滤波器/内核的差异有点困惑。例如,假设对于每种情况,输入图像为8x3。在深度方向上有3个过滤器,例如3x3x1,在reg conv2d中有1个过滤器3X3X3X3。这是正确的吗 在深度上,3个过滤器中的每一个都是不同的。在reg conv2d中,每个过滤器都是“通道”吗?这是正确的术语吗?不同的还是它们都一样 如果它们不同,这两种操作有何不同?我知道在dw中,可以包含一个通道乘数,这样输出深度将始终是其输入深度的倍数。在reg conv2d中,您可以有多个

Machine learning 在机器学习中,当具有所有分类特征时,如何进行用户分割

我有一个问题,我的所有功能列都是分类的。现在我如何才能找到用户细分。我应该只做智能装箱并使用kmodes算法吗?是否有其他方法和建议让我们假设A是一个大小为M X N的矩阵,其中M是用户数量,N是每个用户的功能数量。该矩阵中的每个值都是分类的(0或1)。 对于用户分割,最好在K维空间中嵌入,在该空间中可以根据实验选择K。 为了得到嵌入,我们可以尝试A的矩阵分解,其中 A~转置(V)*V V是大小mxk的嵌入。V及其转置的乘积近似于A。这种嵌入将是K维空间中用户的表示。您可以在任何聚类算法上使用这

Machine learning 如何提高我的神经网络准确性(说话人识别-MFCC)

我正在研究说话人识别神经网络 我所做的是将wav文件(Bing Bang Theory first Espide:-])转换为MFCC系数,然后将其作为神经网络MLPC分类器的开源api的输入,作为输出,我为每个说话人定义一个唯一的向量,比如:[1,0,0,0]-sheldon;[0,1,0,0]-便士;等等,我随机抽取50个值进行测试,其他值用于拟合训练 这是我的代码,一开始我得到了关于NN的random accucary的信息,但在“了不起的家伙”的帮助下,我将其提高到~42%,但我想要更多

Machine learning 矢量化梯度下降函数

我对线性代数相当陌生,目前正在学习Andrew Ng的机器学习课程。我很难理解下面两个函数是如何相同的。我正在研究线性/逻辑回归的向量化梯度下降 theta = theta - (alpha/m)*(X')*(X*theta - y) theta = theta - (alpha/m)*sum((X*theta -y)*x(i)) 我的想法是席是向量,为了做向量乘法,我需要转置它,但是当试图模仿一个例子时,我看不出这是多么必要。任何帮助或解释都将不胜感激。假设您参考的是底部的方程式,第4课,

Machine learning 我的模型总是给出相同的预测值

我使用gru层训练和预测排名。 但即使输入发生变化,它也总是给出相同的预测值。 例如 输入(1,2,3,5)->6 输入(2,4,6,9)->6 我的模型出了什么问题 model = Sequential() model.add(GRU(32, batch_input_shape = (1,6,1), return_sequences=True, stateful=True)) model.add(GRU(16, return_sequences=True, stateful=True)) mo

Machine learning 密集softmax层中的输出数

我一直在学习Coursera课程进行额外练习,但遇到了一个我不理解的问题。 就我所研究的ML神经网络问题而言,我一直被教导,多类分类问题的输出层将是稠密的,节点数等于类数。例如狗、猫、马-3类=3个节点 然而,在笔记本中,标签中有5个类,使用len(label\u tokenizer.word\u index)检查,但是使用5个节点,我得到了糟糕的结果,6个节点的模型工作正常 谁能解释一下为什么会这样?我找不到任何在线例子来解释这一点。干杯 我明白了。失去分类交叉熵的稠密层的输出期望标签/目标

Machine learning 二元评级推荐系统

我想问一下,是否有可能在keras的二进制评级(喜欢或不喜欢)系统上构建一个推荐系统 编辑:我正在尝试建立一个推荐系统,根据显示给用户的类别/主题(政治、时尚、艺术/文化等),如果用户喜欢/不喜欢提要,我会向用户推荐帖子/提要。您应该看看分解机模型。它们非常适合于具有稀疏输入数据的分类问题 在快速搜索Keras中的分解机和DeepFM实现后,我发现了此链接(我与此链接的作者无关):您能否添加有关任务、正在处理的数据类型等的更多详细信息?我已输入编辑。显示您所做的工作、数据集快照、,您的代码。等,

Machine learning 目标均值编码机器学习

如果我们在分类特征中有很多级别,那么目标均值编码就非常有效。我们可以使用目标均值编码来基于目标均值对这些类别进行编码,而不是创建许多虚拟编码列。但是,正如我们所知道的目标一样,这在模型训练中效果很好。对于模型测试,使用x_测试也可以,因为我们仍然知道y_测试,并且可以在x_测试中编码特性。但是在现实世界中,当我们只有x_测试时,我们如何在x_测试中编码类别,因为没有目标可以按照训练模型的预期执行目标平均编码。 我们能在这样的真实场景中应用目标均值编码吗

Machine learning 如果多类分类器均匀分布未命中分类,则';即使分类器不好,它也会给出较高的AUC吗?

我有一个多类分类问题,对于400个类,我得到了非常高的AUC分数(>0.94),对于如此多的类,这是出乎意料的高。肯定是出了问题。我有一个解释,但我需要有人验证我的推理是否属实 因此,在多类问题的情况下,如果我想使用ROC,我需要对类标签进行二值化(因为ROC适用于二值类问题)。现在,例如,如果我使用一对一配置(Hand and Till,2001),并且分类器将未命中分类(误报和误报)均匀地分布在许多(甚至所有)类上,那么对于任何一对类,我将不可避免地有少量的误报和少量的误报。因此,假阳性和假

Machine learning 如果DBSCAN算法工作正常,是否可能导致集群成员少于minPoints?

我不熟悉使用DBSCAN算法 快速总结;它有两个参数: epsilon-指定两点之间可接受的“距离”,在该距离下,两点可以被视为足够接近群集 minPoints-指定必须随距离epsilon下降的最小点数,以构成簇。如果没有足够多的点在一起,它只是被标记为噪声 我使用的是其他人的DBSCAN算法,我有源代码,我只懂一点。我希望我能用它,但后来我发现一些行为,我没有预料到 我为minPoints指定了一个值6,但是在我的结果中,我得到了一个只有2个点的聚类 通过调试,我想我可以看到发生了什么。当检

  1    2   3   4   5   6  ... 下一页 最后一页 共 145 页