草庐IT

keras-rl

全部标签

python - Keras 自定义损失实现 : ValueError: An operation has `None` for gradient

我正在尝试实现这个损失函数:MCFD_loss_function来自本文档(P6):Lossfunctions所以我创建了一个这样的新函数:defmcfd_loss(y_true,y_pred):returnK.sum(#∑K.cast(K.greater(#onlyvaluesgreaterthan0(+float32cast)K.dot(K.sign(y_pred),#πK.sign(y_true)),0),'float32'))但是当我开始训练时出现了这个错误:ValueError:AnoperationhasNoneforgradient.Pleasemakesurethata

python - 使用keras的句子相似度

我正在尝试基于此workusingtheSTSdataset实现句子相似度架构.标签是从0到1的归一化相似性分数,因此假设它是一个回归模型。我的问题是,从第一个纪元开始,损失直接进入NaN。我做错了什么?我已经尝试更新到最新的keras和theano版本。我的模型的代码是:defcreate_lstm_nn(input_dim):seq=Sequential()`#embeddusingpretrained300dembeddingseq.add(Embedding(vocab_size,emb_dim,mask_zero=True,weights=[embedding_weights

python - 如何在 keras fit_generator() 中定义 max_queue_size、workers 和 use_multiprocessing?

我正在使用GPU版本的keras在预训练网络上应用迁移学习。我不明白如何定义参数max_queue_size、workers和use_multiprocessing。如果我更改这些参数(主要是为了加快学习速度),我不确定每个时期是否仍然可以看到所有数据。max_queue_size:用于“预缓存”来自生成器的样本的内部训练队列的最大大小问题:这是指在CPU上准备了多少批处理?它与workers有什么关系?如何最佳定义?worker:并行生成批处理的线程数。批处理在CPU上并行计算,并即时传递到GPU以进行神经网络计算问题:如何确定我的CPU可以/应该并行生成多少批处理?use_mult

machine-learning - Keras LSTM 时间序列

我有一个问题,此时我完全不知道如何解决它。我正在使用带有LSTM层的Keras来投影时间序列。我正在尝试使用前10个数据点来预测第11个。代码如下:fromkeras.modelsimportSequentialfromkeras.layers.coreimportDense,Activation,Dropoutfromkeras.layers.recurrentimportLSTMdef_load_data(data):"""datashouldbepd.DataFrame()"""n_prev=10docX,docY=[],[]foriinrange(len(data)-n_pre

python - Keras 加载彩色图像

我有3个带有彩色图像的文件夹。文件夹名称是里面图片的标签。cls1|____img_0.png|____...|____img_n.pngcls2|____img_0.png|____...|____img_n.pngcls3|____img_0.png|____...|____img_n.png我想使用Keras库创建用于分类的卷积神经网络,但我找不到如何从彩色图像创建数据集。你能帮帮我吗? 最佳答案 请考虑这个gistofpre-trainedVGG-16modelwithexampleusage我认为这是说明性的:总结:使用O

python - 在 Keras 中训练多类图像分类器

我正在学习使用Keras训练分类器的教程https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html具体来说,来自secondscript作者给出的,我想将脚本转换成一个可以训练多类分类器的脚本(是猫和狗的二进制文件)。我的火车文件夹中有5个类(class),所以我做了以下更改:在train_top_model()的函数中:我变了model=Sequential()model.add(Flatten(input_shape=train_data.shape[

python - 使用 keras tokenizer 处理不在训练集中的新词

我目前正在使用KerasTokenizer创建单词索引,然后将该单词索引与导入的GloVe词典进行匹配以创建嵌入矩阵。然而,我遇到的问题是,这似乎打败了使用词向量嵌入的优势之一,因为当使用经过训练的模型进行预测时,如果它遇到一个不在分词器的词索引中的新词,它会将其从序列中删除.#fitthetokenizertokenizer=Tokenizer()tokenizer.fit_on_texts(texts)word_index=tokenizer.word_index#loadgloveembeddingintoadictembeddings_index={}dims=100glove

python - 为什么我会收到 Keras LSTM RNN input_shape 错误?

我不断从以下代码中收到input_shape错误。fromkeras.modelsimportSequentialfromkeras.layers.coreimportDense,Activation,Dropoutfromkeras.layers.recurrentimportLSTMdef_load_data(data):"""datashouldbepd.DataFrame()"""n_prev=10docX,docY=[],[]foriinrange(len(data)-n_prev):docX.append(data.iloc[i:i+n_prev].as_matrix())

python - 是否可以在 tensorboard 中可视化 keras 嵌入?

keras能够使用keras.callbacks.TensorBoard以张量板兼容格式导出它的一些训练数据。但是,它不支持embeddingvisualisation在张量板上。有解决办法吗? 最佳答案 找到解决方案:importosimportkerasimporttensorflowROOT_DIR='/tmp/tfboard'os.makedirs(ROOT_DIR,exist_ok=True)OUTPUT_MODEL_FILE_NAME=os.path.join(ROOT_DIR,'tf.ckpt')#getthekera

python - 如何将预测序列转换回keras中的文本?

我有一个序列到序列学习模型,它运行良好并且能够预测一些输出。问题是我不知道如何将输出转换回文本序列。这是我的代码。fromkeras.preprocessing.textimportTokenizer,base_filterfromkeras.preprocessing.sequenceimportpad_sequencesfromkeras.modelsimportSequentialfromkeras.layersimportDensetxt1="""Whatmakesthisproblemdifficultisthatthesequencescanvaryinlength,bec