草庐IT

unsupervised-learning

全部标签

论文阅读 (90):Proposal-based Multiple Instance Learning (P-MIL, 2023CVPR)

文章目录1要点1.1概述1.2一些概念1.3主要步骤2方法2.1候选提案生成2.2提案特征提取和分类2.2.1周围对比特征提取2.2.2分类头2.3提案微调2.3.1提案完备性评估2.3.2实例级秩一致性2.4网络训练和推理2.4.1网络训练2.4.2推理3实验3.1数据集即评估标准3.1.1数据集:3.1.2评估标准3.2实现细节3.2.1网络架构3.2.2超参数设置1要点1.1概述名称:提案多示例学习(proposal-basedmultipleinstancelearning,P-MIL)背景:弱监督时间动作定位,即仅在视频级标签下定位和识别未修剪视频中的动作。不考虑实例级标签时,已有方

python - KMeans聚类后的聚类点(scikit learn)

我已经使用sklearn使用Kmeans完成了聚类。虽然它有一种打印质心的方法,但我发现scikit-learn没有一种方法可以打印出每个集群的集群点(或者我到目前为止还没有看到它),这很奇怪。有没有一种巧妙的方法来获取每个集群的集群点?我目前有这个相当笨拙的代码来执行此操作,其中V是数据集:defgetClusterPoints(V,labels):clusters={}forlinrange(0,max(labels)+1):data_points=[]indices=[ifori,xinenumerate(labels)ifx==l]foridxinindices:data_po

Python 统计模型 OLS : how to save learned model to file

我正在尝试使用Python的statsmodels库学习普通的最小二乘模型,如所述here.sm.OLS.fit()返回学习模型。有没有办法将其保存到文件并重新加载?我的训练数据很大,学习模型大约需要半分钟。所以我想知道OLS模型中是否存在任何保存/加载功能。我在模型对象上尝试了repr()方法,但它没有返回任何有用的信息。 最佳答案 models和results实例都有save和load方法,不需要直接使用pickle模块。编辑以添加示例:importstatsmodels.apiassmdata=sm.datasets.long

python - .arff 文件与 scikit-learn?

我想使用Attribute-RelationFileFormat用scikit-learn做一些NLP任务,这可能吗?如何将.arff文件与scikit-learn一起使用? 最佳答案 真心推荐liac-arff.它不会直接加载到numpy,但转换很简单:importarff,numpyasnpdataset=arff.load(open('mydataset.arff','rb'))data=np.array(dataset['data']) 关于python-.arff文件与scik

python - scikit-learn TruncatedSVD 的解释方差比不按降序排列

这个问题在这里已经有了答案:WhySklearnTruncatedSVD'sexplainedvarianceratiosarenotindescendingorder?(1个回答)关闭2年前。与sklearn的PCA不同,TruncatedSVD的解释方差比不是按降序排列的。我查看了源代码,似乎他们使用不同的方式计算解释的方差比:TruncatedSVD:U,Sigma,VT=randomized_svd(X,self.n_components,n_iter=self.n_iter,random_state=random_state)X_transformed=np.dot(U,np

python - scikit-learn 管道中具有递归特征消除的网格搜索返回错误

我正在尝试使用scikit-learn在管道中链接网格搜索和递归特征消除。带有“裸”分类器的GridSearchCV和RFE工作正常:fromsklearn.datasetsimportmake_friedman1fromsklearnimportfeature_selectionfromsklearn.grid_searchimportGridSearchCVfromsklearn.svmimportSVRX,y=make_friedman1(n_samples=50,n_features=10,random_state=0)est=SVR(kernel="linear")selec

python - 在 scikit-learn SVM 中缩放数据

虽然libsvm提供了用于缩放数据的工具,但使用Scikit-Learn(对于SVC分类器应该基于libSVM)我找不到缩放数据的方法。基本上我想使用4个特征,其中3个从0到1,最后一个是一个“大”高度可变的数字。如果我在libSVM中包含第四个功能(使用自动缩放我的数据的easy.py脚本),我会得到一些非常好的结果(96%的准确率)。如果我在Scikit-Learn中包含第四个变量,准确度会下降到~78%-但如果我排除它,我得到的结果与在排除该特征时在libSVM中得到的结果相同。因此,我很确定这是缺少缩放的问题。如何以编程方式(即不调用svm-scale)复制SVM的缩放过程?

machine-learning - sp_randint 是如何工作的?

我正在对随机森林分类器进行超参数优化。我打算使用RandomSearchCV。因此,通过检查Scikit中的可用代码,可以了解:sp_randint的作用是什么?它是否随机取一个从1到11的值?可以用其他功能代替吗?fromscipy.statsimportrandintassp_randintparam_dist={"n_estimators":sp_randint(1,11),"max_depth":[3,None],"max_features":sp_randint(1,11),"min_samples_split":sp_randint(1,11),"min_samples_l

python - 如何将带有 keras 回归器的 scikit-learn 管道保存到磁盘?

我有一个带有kerasRegressor的scikit-learn管道:estimators=[('standardize',StandardScaler()),('mlp',KerasRegressor(build_fn=baseline_model,nb_epoch=5,batch_size=1000,verbose=1))]pipeline=Pipeline(estimators)训练管道后,我尝试使用joblib保存到磁盘...joblib.dump(pipeline,filename,compress=9)但是我得到一个错误:RuntimeError:maximumrecur

python - scikit-learn, linearsvc - 如何从经过训练的 SVM 中获取支持向量?

我正在使用scikit-learn库中的LinearSVC,我想知道是否有可能以某种方式提取我的模型在训练后使用的向量来进行预测。试图谷歌一段时间但没有任何运气。有人知道吗? 最佳答案 不幸的是,似乎没有办法做到这一点。LinearSVC调用liblinear(seerelevantcode)但不检索向量,仅检索系数和截距。一种替代方法是将SVC与“线性”内核(libsvm而不是基于liblinear的内核)一起使用,还有poly、dbf和sigmoid内核支持这个选项:fromsklearnimportsvmX=[[0,0],[1