草庐IT

python - 修改神经网络对单个示例进行分类

这是我对深度学习类(class)中AndrewNG的神经网络之一的自定义扩展,我正在尝试为二进制分类生成0或1,而不是生成0或1对多个示例进行分类。输入和输出都是一种热编码。在没有太多训练的情况下,我的准确度为'trainaccuracy:67.51658067499625%'如何对单个训练示例进行分类而不是对所有训练示例进行分类?我认为我的实现中存在一个错误,因为该网络的一个问题是训练示例(train_set_x)和输出值(train_set_y)都需要具有相同的维度,否则会收到与矩阵维度相关的错误。例如使用:train_set_x=np.array([[1,1,1,1],[0,1,

python - 如何使用 XGBoost 获取 Predictions 和使用 Scikit-Learn Wrapper 的 XGBoost 进行匹配?

我是Python中XGBoost的新手,所以如果这里的答案很明显,我深表歉意,但我正在尝试使用panda数据框并在Python中获取XGBoost来给我使用Scikit-Learn包装器时得到的相同预测对于同一个练习。到目前为止,我一直无法这样做。举个例子,这里我使用波士顿数据集,转换为Pandas数据框,训练数据集的前500个观察值,然后预测最后6个。我先用XGBoost做,然后用Scikit-Learn包装器和即使我将模型的参数设置为相同,我也会得到不同的预测。具体来说,数组预测看起来与数组预测2非常不同(请参见下面的代码)。任何帮助将不胜感激!fromsklearnimportd

python - 类型错误 : 'KFold' object is not iterable

我正在关注Kaggle上的一个内核,主要是我在关注AkernelforCreditCardFraudDetection.我到达了需要执行KFold以便找到逻辑回归的最佳参数的步骤。以下代码显示在内核本身中,但出于某种原因(可能是旧版本的scikit-learn,给我一些错误)。defprinting_Kfold_scores(x_train_data,y_train_data):fold=KFold(len(y_train_data),5,shuffle=False)#DifferentCparametersc_param_range=[0.01,0.1,1,10,100]result

python - Tensorflow 相同的训练精度持续

我被困在Tensorflow上的CNN模型上。我的代码如下。图书馆#-*-coding:utf-8-*-importtensorflowastfimporttimeimportjsonimportnumpyasnpimportmatplotlib.pyplotaspltimportrandomimportmultiprocessingasmpimportglobimportos型号definference(images_placeholder,keep_prob):defweight_variable(shape):initial=tf.truncated_normal(shape,s

python - 我是否在 k-fold cross_validation 中使用相同的 Tfidf 词汇表

我正在基于TF-IDF向量空间模型进行文本分类。我只有不超过3000个样本。为了公平评估,我正在使用5折交叉评估分类器validation.但让我困惑的是,是否需要在每次foldcross-validation中重建TF-IDFVectorSpaceModel。也就是说,我是否需要在每次折叠交叉验证中重建词汇表并重新计算词汇表中的IDF值?目前我正在基于scikit-learn工具包进行TF-IDF转换,并使用SVM训练我的分类器。我的方法是:首先,我将手上的样本按照3:1的比例进行划分,其中的75%用于拟合TF-IDF向量空间模型的参数。这里的参数就是尺寸词汇表和其中包含的术语,还有

python - Patsy:测试数据中分类字段的新级别

我正在尝试使用Patsy(使用sklearn、pandas)创建一个简单的回归模型。R风格的公式创建是一大亮点。我的数据包含一个名为“ship_city”的字段,它可以包含来自印度的任何城市。由于我将数据划分为训练集和测试集,因此有几个城市仅出现在其中一个集中。代码片段如下:df_train_Y,df_train_X=dmatrices(formula,data=df_train,return_type='dataframe')df_train_Y_design_info,df_train_X_design_info=df_train_Y.design_info,df_train_X.

python - 在 SciKit-Learn 中使用 XGBoost 的交叉验证进行网格搜索和提前停止

我是sci-kitlearn的新手,一直在尝试对XGBoost进行超参数调整。我的目标是使用早停和网格搜索来调整模型参数,并使用早停来控制树的数量并避免过度拟合。因为我在网格搜索中使用交叉验证,所以我希望在早期停止条件中也使用交叉验证。到目前为止,我的代码如下所示:importnumpyasnpimportpandasaspdfromsklearnimportmodel_selectionimportxgboostasxgb#Importtrainingandtestdatatrain=pd.read_csv("train.csv").fillna(value=-999.0)test=

python - keras中的全梯度下降

我正在尝试在keras中实现全梯度下降。这意味着对于每个时期,我都在整个数据集上进行训练。这就是批量大小定义为训练集长度大小的原因。fromkeras.modelsimportSequentialfromkeras.layersimportDensefromkeras.optimizersimportSGD,Adamfromkerasimportregularizersimportnumpyasnpimportmatplotlib.pyplotasplt%matplotlibinlineimportrandomfromnumpy.randomimportseedimportrandom

python - 在 Keras 中,验证准确率始终高于训练准确率

我正在尝试使用mnist数据集训练一个简单的神经网络。出于某种原因,当我获得历史记录(从model.fit返回的参数)时,验证精度高于训练精度,这真的很奇怪,但是如果我在评估模型时检查分数,我会得到更高的训练准确率高于测试准确率。无论模型的参数如何,这种情况每次都会发生。另外,如果我使用自定义回调并访问参数'acc'和'val_acc',我会发现同样的问题(数字与历史中返回的数字相同)。请帮帮我!我究竟做错了什么?为什么验证准确率比训练准确率高(你看我看loss的时候也有同样的问题)。这是我的代码:#!/usr/bin/envpython3.5fromkeras.layersimpor

python - 导入错误 : No module named 'tensorflow.python'

在这里我想运行这段代码来尝试使用python进行神经网络:from__future__importprint_functionfromkeras.datasetsimportmnistfromkeras.modelsimportSequentialfromkeras.layersimportActivation,Densefromkeras.utilsimportnp_utilsimporttensorflowastfbatch_size=128nb_classes=10nb_epoch=12#inputimagedimensionsimg_row,img_cols=28,28#the