草庐IT

comp_score

全部标签

python - scikit-learn roc_auc_score() 返回精度值

我正在尝试使用sklearn.metrics.roc_auc_score使用以下方法计算ROC曲线下的面积:roc_auc=sklearn.metrics.roc_auc_score(actual,predicted)其中actual是一个带有真实分类标签的二元向量,predicted是一个带有我的分类器预测的分类标签的二元向量。但是,我得到的roc_auc的值与准确度值(标签被正确预测的样本的比例)完全相似。这不是一次性的事情。我在不同的参数值上尝试我的分类器,每次我都得到相同的结果。我在这里做错了什么? 最佳答案 这是因为您传递

python - 属性错误 : ‘module’ object has no attribute 'scores'

尝试使用nltk.metrics.scores中的函数precision时出现错误。我尝试了许多不同的导入,但都没有成功。我查看了我的python目录中的文件(见下文),功能在那里,但只是“不能触摸这个/那个”。我看了看:/usr/local/lib/python2.7/dist-packages/nltk/metrics/usr/local/lib/python2.7/dist-packages/nltk/metrics/scores.py这是我的终端显示给我的:File"/home/login/projects/python-projects/test.py",line39,inp

python - 使用 sklearn cross_val_score 和 kfolds 来拟合和帮助预测模型

我试图了解如何使用sklearnpython模块中的kfolds交叉验证。我了解基本流程:实例化一个模型,例如model=LogisticRegression()拟合模型,例如model.fit(xtrain,ytrain)预测,例如模型.预测(ytest)使用例如crossval分数来测试拟合模型的准确性。我感到困惑的是使用sklearnkfolds和crossval分数。据我了解,cross_val_score函数将拟合模型并预测kfolds,为您提供每次折叠的准确度分数。例如使用这样的代码:kf=KFold(n=data.shape[0],n_folds=5,shuffle=Tr

python - sklearn cross_val_score 的准确性低于手动交叉验证

我正在研究一个文本分类问题,我是这样设置的(为了简洁起见,我省略了数据处理步骤,但它们会生成一个名为data的数据框包含X和y列):importsklearn.model_selectionasmsfromsklearn.feature_extraction.textimportTfidfVectorizerfromsklearn.ensembleimportRandomForestClassifiersim=Pipeline([('vec',TfidfVectorizer((analyzer="word",ngram_range=(1,2))),("rdf",RandomForest

Python Keras cross_val_score 错误

我正在尝试在keras上做这个关于回归的小教程:http://machinelearningmastery.com/regression-tutorial-keras-deep-learning-library-python/不幸的是,我遇到了无法修复的错误。如果我只是复制并粘贴代码,则在运行此代码段时会出现以下错误:importnumpyimportpandasfromkeras.modelsimportSequentialfromkeras.layersimportDensefromkeras.wrappers.scikit_learnimportKerasRegressorfro

python - 在 sklearn.cross_validation 中使用 train_test_split 和 cross_val_score 的区别

我有一个包含20列的矩阵。最后一列是0/1标签。数据链接是here.我正在尝试使用交叉验证在数据集上运行随机森林。我使用两种方法来做到这一点:使用sklearn.cross_validation.cross_val_score使用sklearn.cross_validation.train_test_split当我做我认为几乎完全相同的事情时,我得到了不同的结果。为了举例说明,我使用上述两种方法运行双重交叉验证,如下面的代码所示。importcsvimportnumpyasnpimportpandasaspdfromsklearnimportensemblefromsklearn.me

python - sklearn 中 score 和 accuracy_score 的区别

sklearn.naive_bayes.GaussianNB()模块中的score()方法和sklearn中的accuracy_score方法有什么区别。指标模块?两者似乎相同。对吗? 最佳答案 一般来说,不同的模型有返回不同指标的评分方法。这是为了允许分类器指定他们认为最适合他们的评分指标(因此,例如,最小二乘回归分类器将有一个score方法返回类似于平方误差之和的东西).在GaussianNB的情况下,文档说它的评分方法:Returnsthemeanaccuracyonthegiventestdataandlabels.accu

python - 得分为 ='roc_auc' 的 cross_val_score 和 roc_auc_score 有什么区别?

我对cross_val_score评分指标“roc_auc”和我可以直接导入和调用的roc_auc_score之间的区别感到困惑。文档(http://scikit-learn.org/stable/modules/model_evaluation.html#scoring-parameter)表明指定scoring='roc_auc'将使用sklearn.metrics.roc_auc_score。但是,当我使用scoring='roc_auc'实现GridSearchCV或cross_val_score时,我收到的数字与直接调用roc_auc_score时截然不同。这是我的代码,用于

Python scikit 学习(指标): difference between r2_score and explained_variance_score?

我注意到r2_score和explained_variance_score都是用于回归问题的内置sklearn.metrics方法。我一直认为r2_score是模型解释的百分比方差。它与explained_variance_score有何不同?你什么时候会选择一个而不是另一个?谢谢! 最佳答案 我找到的大部分答案(包括此处)都强调R2之间的区别和ExplainedVarianceScore,即:平均残差(即平均误差)。但是,还有一个重要的问题被抛在脑后,那就是:我到底为什么要考虑均值误差?复习:R2:是决定系数,用于测量(最小二乘)

python - cross_val_score 和 cross_val_predict 的区别

我想评估一个使用交叉验证的scikitlearn构建的回归模型,我很困惑,我应该使用cross_val_score和cross_val_predict这两个函数中的哪一个。一种选择是:cvs=DecisionTreeRegressor(max_depth=depth)scores=cross_val_score(cvs,predictors,target,cv=cvfolds,scoring='r2')print("R2-Score:%0.2f(+/-%0.2f)"%(scores.mean(),scores.std()*2))另一个,使用标准r2_score的cv预测:cvp=Dec