草庐IT

python - hdf5 文件到 pandas 数据框

我下载了一个存储在.h5文件中的数据集。我只需要保留某些列并能够操作其中的数据。为此,我尝试将其加载到pandas数据框中。我试过使用:pd.read_hdf(path)但我得到:HDF5文件中没有数据集。我在SO(readHDF5filetopandasDataFramewithconditions)上找到了答案,但我不需要条件,答案添加了有关文件编写方式的条件,但我不是文件的创建者,所以我做不到关于那个的任何事情。我也尝试过使用h5py:df=h5py.File(path)但这并不容易操作,我似乎无法从中获取列(仅使用df.keys()的列名)关于如何执行此操作的任何想法?

python - 如何使用 `h5py` 调整 HDF5 阵列的大小

如何使用h5pyPython库调整HDF5数组的大小?我已经尝试使用.resize方法并在chunks设置为True的数组上。las,我仍然缺少一些东西。In[1]:importh5pyIn[2]:f=h5py.File('foo.hdf5','w')In[3]:d=f.create_dataset('data',(3,3),dtype='i8',chunks=True)In[4]:d.resize((6,3))/home/mrocklin/Software/anaconda/lib/python2.7/site-packages/h5py/_hl/dataset.pycinresiz

python - 在 Pandas 中将列附加到 HDF 文件的框架

我正在处理CSV格式的大型数据集。我正在尝试逐列处理数据,然后将数据附加到HDF文件中的帧。所有这些都是使用Pandas完成的。我的动机是,虽然整个数据集比我的物理内存大得多,但列大小是可管理的。在稍后阶段,我将通过将列一一加载回内存并对其进行操作来执行特征逻辑回归。我可以制作一个新的HDF文件并用第一列制作一个新的框架:hdf_file=pandas.HDFStore('train_data.hdf')feature_column=pandas.read_csv('data.csv',usecols=[0])hdf_file.append('features',feature_col

python - 将大型 SAS 数据集转换为 hdf5

我有多个大型(>10GB)SAS数据集,我想将其转换为在pandas中使用,最好在HDF5中使用。有许多不同的数据类型(日期、数字、文本),一些数字字段也有不同的缺失值错误代码(即值可以是.、.E、.C等)我希望保留列名和标签元数据。有没有人找到一种有效的方法来做到这一点?我尝试使用MySQL作为两者之间的桥梁,但在传输时出现了一些超出范围的错误,而且速度非常慢。我还尝试以Stata.dta格式从SAS导出,但SAS(9.3)以与pandas中的read_stat()不兼容的旧Stata格式导出。我还尝试了sas7bdat包,但从描述来看它还没有经过广泛测试,所以我想以另一种方式加载数

python - 如何以HDF5格式提供caffe多标签数据?

我想将caffe与矢量标签一起使用,而不是整数。我检查了一些答案,HDF5似乎是更好的方法。但后来我遇到了这样的错误:accuracy_layer.cpp:34]Checkfailed:outer_num_*inner_num_==bottom[1]->count()(50vs.200)Numberoflabelsmustmatchnumberofpredictions;e.g.,iflabelaxis==1andpredictionshapeis(N,C,H,W),labelcount(numberoflabels)mustbeN*H*W,withintegervaluesin{0,

python - 将具有混合数据和类别的 pandas DataFrame 存储到 hdf5 中

我想将具有不同列的数据帧存储到一个hdf5文件中(在下面找到数据类型的摘录)。In[1]:mydfOut[1]:endTimeuint32distancefloat16signaturecategoryanchorNamecategorystationListobject在转换某些列(上面摘录中的signature和anchorName)之前,我使用了如下代码来存储它(效果很好):path='tmp4.hdf5'key='journeys'mydf.to_hdf(path,key,mode='w',complevel=9,complib='bzip2')但它不适用于类别,然后我尝试了以

python - 在 Pandas 中查询 HDF5

我将以下数据(18,619,211行)作为pandas数据框对象存储在hdf5文件中:dateid2wid1000101980-03-31104010.0008391000101980-03-31106040.0201401000101980-03-31124900.0261491000101980-03-31130470.0335601000101980-03-31133030.001657其中id是索引,其他是列。日期是np.datetime64。我需要执行这样的查询(代码当然不起作用):db=pd.HDFStore('database.h5')data=db.select('df

python - 在 HDF5 中存储 Pandas 对象和常规 Python 对象

Pandas有一个niceinterface这有助于在HDF5中存储诸如Dataframes和Series之类的东西:random_matrix=np.random.random_integers(0,10,m_size)my_dataframe=pd.DataFrame(random_matrix)store=pd.HDFStore('some_file.h5',complevel=9,complib='bzip2')store['my_dataframe']=my_dataframestore.close()但是如果我尝试在同一个文件中保存一些其他常规Python对象,它会提示:m

python - Google Protocol Buffers、HDF5、NumPy 比较(传输数据)

我需要帮助来做决定。我需要在我的应用程序中传输一些数据,并且必须在这3种技术之间做出选择。我已经稍微了解了所有技术(教程、文档),但仍然无法决定...他们如何比较?我需要元数据的支持(接收文件并在没有任何附加信息/文件的情况下读取它的能力)、快速读/写操作、存储动态数据的能力将是一个优势(比如Python对象)我已经知道的事情:NumPy速度非常快,但不能存储动态数据(如Python对象)。(元数据呢?)HDF5速度很快,支持自定义属性,使用方便,但不能存储Python对象。此外,HDF5原生序列化NumPy数据,因此,恕我直言,NumPy与HDF5相比没有优势GoogleProtoc

python - Google Protocol Buffers、HDF5、NumPy 比较(传输数据)

我需要帮助来做决定。我需要在我的应用程序中传输一些数据,并且必须在这3种技术之间做出选择。我已经稍微了解了所有技术(教程、文档),但仍然无法决定...他们如何比较?我需要元数据的支持(接收文件并在没有任何附加信息/文件的情况下读取它的能力)、快速读/写操作、存储动态数据的能力将是一个优势(比如Python对象)我已经知道的事情:NumPy速度非常快,但不能存储动态数据(如Python对象)。(元数据呢?)HDF5速度很快,支持自定义属性,使用方便,但不能存储Python对象。此外,HDF5原生序列化NumPy数据,因此,恕我直言,NumPy与HDF5相比没有优势GoogleProtoc