草庐IT

train_dataset

全部标签

python - 在 sklearn.cross_validation 中使用 train_test_split 和 cross_val_score 的区别

我有一个包含20列的矩阵。最后一列是0/1标签。数据链接是here.我正在尝试使用交叉验证在数据集上运行随机森林。我使用两种方法来做到这一点:使用sklearn.cross_validation.cross_val_score使用sklearn.cross_validation.train_test_split当我做我认为几乎完全相同的事情时,我得到了不同的结果。为了举例说明,我使用上述两种方法运行双重交叉验证,如下面的代码所示。importcsvimportnumpyasnpimportpandasaspdfromsklearnimportensemblefromsklearn.me

python - Keras model.fit() 与 tf.dataset API + validation_data

所以我通过以下代码让我的keras模型与tf.Dataset一起工作:#Initializebatchgenerators(returnstf.Dataset)batch_train=build_features.get_train_batches(batch_size=batch_size)#CreateTensorFlowIteratorobjectiterator=batch_train.make_one_shot_iterator()dataset_inputs,dataset_labels=iterator.get_next()#CreateModellogits=.....

python - tf.train.init_from_checkpoint 不初始化使用 tf.Variable 创建的变量

tf.train.init_from_checkpoint似乎初始化了通过tf.get_variable创建的变量,但不是通过tf.Variable创建的变量。例如,让我们创建两个变量并保存它们:importtensorflowastftf.Variable(1.0,name='foo')tf.get_variable('bar',initializer=1.0)saver=tf.train.Saver()withtf.Session()assess:tf.global_variables_initializer().run()saver.save(sess,'./model',glo

python - 在 Tensorflow 的 Dataset API 中,如何将一个元素映射为多个元素?

在tensorflowDataset管道中,我想定义一个自定义映射函数,它采用单个输入元素(数据样本)并返回多个元素(数据样本)。下面的代码是我的尝试,以及我想要的结果。我无法很好地遵循有关tf.data.Dataset().flat_map()的文档,无法理解它是否适​​用于此处。importtensorflowastfinput=[10,20,30]defmy_map_func(i):return[[i,i+1,i+2]]#Fyi[[i],[i+1],[i+2]]throwsanexceptionds=tf.data.Dataset.from_tensor_slices(input

python - Tensorflow 对象检测 API 没有 train.py 文件

我已根据提供的文档正确安装了TensorflowObjectDetectionAPI。但是,当我需要训练我的网络时,research/object_detection目录中没有train.py文件。我能做些什么来解决这个问题吗?链接:https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/installation.md 最佳答案 需要澄清的是,正如DerekChow所提到的,训练和评估python脚本似乎最近(大约6天前)移到了

python - xgb.train 和 xgb.XGBRegressor(或 xgb.XGBClassifier)有什么区别?

我已经知道“xgboost.XGBRegressor是XGBoost的Scikit-LearnWrapper接口(interface)。”但是它们还有什么不同吗? 最佳答案 xgboost.train是通过梯度提升方法训练模型的低级API。xgboost.XGBRegressor和xgboost.XGBClassifier是包装器(Scikit-Learn类包装器,正如他们所说)DMatrix并传入相应的目标函数和参数。最后,fit调用简单地归结为:self._Booster=train(params,dmatrix,self.n_

python - tensorflow:使用队列运行器有效地提供 eval/train 数据

我正在尝试运行tensorflow图来训练模型并使用单独的评估数据集定期进行评估。训练和评估数据都是使用队列运行器实现的。我当前的解决方案是在同一个图中创建两个输入,并使用依赖于is_training占位符的tf.cond。以下代码突出显示了我的问题:importtensorflowastffromtensorflow.models.image.cifar10importcifar10fromtimeimporttimedefget_train_inputs(is_training):returncifar10.inputs(False)defget_eval_inputs(is_tr

Python 和 lmfit : How to fit multiple datasets with shared parameters?

我想使用lmfit使函数适合可变数量的数据集的模块,具有一些共享参数和一些单独参数。这是一个生成高斯数据并分别拟合每个数据集的示例:importnumpyasnpimportmatplotlib.pyplotaspltfromlmfitimportminimize,Parameters,report_fitdeffunc_gauss(params,x,data=[]):A=params['A'].valuemu=params['mu'].valuesigma=params['sigma'].valuemodel=A*np.exp(-(x-mu)**2/(2.*sigma**2))ifd

python - tf.train.shuffle_batch 和 `tf.train.batch 发生了什么?

我使用Binarydata训练DNN。但是tf.train.shuffle_batch和tf.train.batch让我很困惑。这是我的代码,我将对其进行一些测试。首先Using_Queues_Lib.py:from__future__importabsolute_importfrom__future__importdivisionfrom__future__importprint_functionimportosfromsix.movesimportxrange#pylint:disable=redefined-builtinimporttensorflowastfNUM_EXAMP

python - 如何在 tf.data.Dataset 中输入不同大小的列表列表

我有一长串整数列表(代表句子,每个句子都有不同的大小),我想使用tf.data库提供它们。每个列表(列表的列表)都有不同的长度,我得到一个错误,我可以在这里重现:t=[[4,2],[3,4,5]]dataset=tf.data.Dataset.from_tensor_slices(t)我得到的错误是:ValueError:Argumentmustbeadensetensor:[[4,2],[3,4,5]]-gotshape[2],butwanted[2,2].有办法吗?编辑1:明确地说,我不想填充列表的输入列表(这是一个包含超过一百万个元素的句子列表,长度不同)我想使用tf.data库