草庐IT

TFRecord

全部标签

如何用可变长度字符串解码TFRECORD数据样本?

假设我们有一个带有这样的数据示例的Tfrecord文件:def_bytes_feature(value):returntf.train.Feature(bytes_list=tf.train.BytesList(value=[value]))def_float32_feature(value):returntf.train.Feature(float_list=tf.train.FloatList(value=value))example=tf.train.Example(features=tf.train.Features(feature={'image/encoded':_bytes_fe

为什么我的tfrecord文件比CSV大得多?

我一直以为是二进制格式,Tfrecord与人类可读的CSV相比,消耗的空间更少。但是,当我试图比较它们时,我发现事实并非如此。例如,我在这里创建一个num_rowsX10矩阵与num_rows标记并将其保存为CSV。我通过将其保存到Tfrecors来做同样的事情:importpandasaspdimporttensorflowastffromrandomimportrandintnum_rows=1000000df=pd.DataFrame([[randint(0,300)forrinxrange(10)]+[randint(0,1)]foriinxrange(num_rows)])df.to

python - 有没有更简单的方法来处理来自 tfrecords 的批量输入?

我的问题是关于如何从多个(或分片的)tfrecords获取批量输入。我读过这个例子https://github.com/tensorflow/models/blob/master/inception/inception/image_processing.py#L410.基本流程是,以训练集为例,(1)首先生成一系列tfrecords(例如,train-000-of-005、train-001-of-005,...),(2)从这些文件名中,生成一个列表并将它们送入tf.train.string_input_producer以得到一个队列,(3)同时生成一个tf.RandomShuffle

python - 如何读取 TFRecord 文件中不同大小的图像

我创建了一个数据集并将其保存到TFRecord文件中。问题是图片有不同的尺寸,所以我想和图片一起保存尺寸。所以我使用了TFRecordWriter并定义了如下功能:example=tf.train.Example(features=tf.train.Features(feature={'rows':_int64_feature(image.shape[0]),'cols':_int64_feature(image.shape[1]),'image_raw':_bytes_feature(image_raw)}))我希望我可以使用TFRecordReader读取和解码图像,但问题是我无法

python - 如何将 numpy 数组存储为 tfrecord?

我正在尝试从numpy数组创建一个tfrecord格式的数据集。我正在尝试存储2d和3d坐标。2d坐标是形状为(2,10)的numpy数组,类型为float643d坐标是形状为(3,10)的numpy数组,类型为float64这是我的代码:def_floats_feature(value):returntf.train.Feature(float_list=tf.train.FloatList(value=value))train_filename='train.tfrecords'#addresstosavetheTFRecordsfilewriter=tf.python_io.TF

python - TensorFlow - 一次读取 TFRecords 中的所有示例?

如何一次读取TFRecords中的所有示例?我一直在使用tf.parse_single_example来读取单个示例,使用的代码类似于exampleofthefully_connected_reader中的方法read_and_decode中给出的代码。.但是,我想一次针对我的整个验证数据集运行网络,因此想全部加载它们。我不完全确定,但是thedocumentation似乎建议我可以使用tf.parse_example而不是tf.parse_single_example一次加载整个TFRecords文件。我似乎无法让它工作。我猜这与我如何指定功能有关,但我不确定在功能规范中如何说明有多

python - TensorFlow - 一次读取 TFRecords 中的所有示例?

如何一次读取TFRecords中的所有示例?我一直在使用tf.parse_single_example来读取单个示例,使用的代码类似于exampleofthefully_connected_reader中的方法read_and_decode中给出的代码。.但是,我想一次针对我的整个验证数据集运行网络,因此想全部加载它们。我不完全确定,但是thedocumentation似乎建议我可以使用tf.parse_example而不是tf.parse_single_example一次加载整个TFRecords文件。我似乎无法让它工作。我猜这与我如何指定功能有关,但我不确定在功能规范中如何说明有多

python - Tensorflow 1.10 TFRecordDataset - 恢复 TFRecord

注意事项:这个问题延伸到之前的questionofmine.在那个问题中,我询问了将一些虚拟数据存储为Example和SequenceExample的最佳方法,想知道哪种方法更适合与所提供的虚拟数据类似的数据。我提供了Example和SequenceExample构造的明确公式,并在答案中提供了一种编程方式。因为这仍然是很多代码,所以我提供了一个Colab(由google托管的交互式jupyternotebook)文件,您可以在其中自行尝试代码以提供帮助。所有必要的代码都在那里,并且有大量注释。我正在尝试学习如何将我的数据转换为TF记录,因为声称的好处对我的数据来说是值得的。然而,文档

python - 创建一个 int 列表功能以在 tensorflow 中另存为 tfrecord?

如何从列表中创建tensorflow记录?来自documentation这似乎是可能的。还有这个example他们使用numpy中的.tostring()将numpy数组转换为字节数组。但是,当我尝试传入时:labels=np.asarray([[1,2,3],[4,5,6]])...example=tf.train.Example(features=tf.train.Features(feature={'height':_int64_feature(rows),'width':_int64_feature(cols),'depth':_int64_feature(depth),'la

python - 如何可视化 TFRecord?

我在另一个论坛上被问到这个问题,但我想我会把它发布在这里,以供遇到TFRecords问题的任何人使用。如果TFRecord文件中的标签与labels.pbtxt文件中的标签不对齐,TensorFlow的对象检测API会产生奇怪的行为。它会运行,损失可能会减少,但网络不会产生良好的检测结果。此外,我个人总是对X-Y、行列空间感到困惑,因此我总是喜欢仔细检查以确保我的注释实际上注释了图像的正确部分。我发现执行此操作的最佳方法是解码TFRecord并使用TF工具绘制它。下面是一些代码:importmatplotlib.pyplotaspltimportnumpyasnpimporttenso
12