h5py相关内容
我正在尝试使用tf.data优化.h5数据的输入管道.但是我遇到了TypeError: expected str, bytes or os.PathLike object, not Tensor.我进行了研究,但找不到有关将字符串的张量转换为字符串的任何信息. 此简化的代码是可执行的,并返回相同的错误: batch_size = 1000 conv_size = 3 nb_conv =
..
我有以下要求:我在一台(源)计算机上有h5文件,我想在另一台(目标)计算机上使用.目前,我觉得我应该在源计算机上将h5文件读取为字节数组,将字节流传输到目标计算机,然后从目标计算机上的字节数组加载h5文件. 问题1.这种方法可以吗?还是有其他方法,可能更好? 在此答案中,我发现我们可以从字节数组中加载h5文件.但是,如何从文件系统上的给定h5文件中获得这种有效的字节数组.我尝试使用通常
..
我想在某些C ++,matlab和python代码中使用hdf5文件. 我的h5文件在C ++和matlab中都能正常运行,但是无法用h5py读取. h5py是否很好地支持H5T_STD_B64LE之类的数据类型? 谢谢! In [2]: f = h5py.File('art.mips.log.h5', 'r') In [3]: f.keys() Out[3]: [u'mem']
..
在h5py中是否有可能创建一个由字符串列表组成的数据集.我试图创建一个可变长度的嵌套数据类型,但这导致我的python解释器出现分段错误. def create_dataset(h5py_file): data = [['I', 'am', 'a', 'sentecne'], ['another', 'sentence']] string_dt = h5py.special_
..
我正在尝试将hdf5数据集附加到先前的hdf5数据集 发生以下错误 h5o.link(obj.id,self.id,name,lcpl = lcpl,lapl = self._lapl)文件 "h5py/_objects.pyx",在h5py._objects.with_phil.wrapper中的第54行, 在h5py._objects.with_phil.wrapper中的文件"h5
..
我正在使用h5py访问HDF5文件并将h5py File对象存储在一个类中.但是在尝试使用新变量重新分配已关闭的h5py文件实例变量时,我遇到了一些奇怪的行为: class MyClass: def __init__(self, filename): self.h5file = None self.filename = filename de
..
我正在使用h5py将实验数据存储在HDF5容器中. 在交互式会话中,我使用以下命令打开文件: measurement_data = h5py.File('example.hdf5', 'a') 然后,我使用一些自写函数将数据写入文件(经过几天的实验,可能会获得许多GB的数据).在实验结束时,我通常会使用 关闭文件 measurement_data.close() 不幸的是,
..
我想通过使用h5py 阅读街景房门号码(SVHN)数据集. > In [117]: def printname(name): ...: print(name) ...: In [118]: data['/digitStruct'].visit(printname) bbox name 数据中有两个组,bbox和name,name是对应于文件名数据的组名,而bb
..
我有一个很大的HDF5文件(〜30GB),我需要对每个数据集中的条目(沿0轴)进行洗牌.浏览h5py文档时,我找不到randomAccess或shuffle功能,但是我希望自己错过了一些东西. 是否有足够熟悉HDF5的人想出一种随机洗牌数据的快速方法? 以下是我将在有限知识下实现的伪代码: for dataset in datasets: unshuffled = ran
..
我注意到,如果我使用h5py库而不是pytables库,则编写.h5文件的时间会更长.是什么原因?当阵列的形状以前已知时,也是如此.此外,我使用相同的块大小,没有压缩过滤器. 以下脚本: import h5py import tables import numpy as np from time import time dim1, dim2 = 64, 1527416 # appe
..
我有一个很大的hdf5文件,看起来像这样: A/B/dataset1, dataset2 A/C/dataset1, dataset2 A/D/dataset1, dataset2 A/E/dataset1, dataset2 ... 我只想创建一个新文件: A/B/数据集1,数据集2 A/C/dataset1,dataset2 在python中最简单的方法是什么? 我
..
我正在尝试将可变长度的字符串列表存储到HDF5数据集.的代码是 import h5py h5File=h5py.File('xxx.h5','w') strList=['asas','asas','asas'] h5File.create_dataset('xxx',(len(strList),1),'S10',strList) h5File.flush() h5File.Close(
..
我使用Python软件包h5py(版本2.5.0)访问我的hdf5文件. 我想遍历文件的内容并对每个数据集执行一些操作. 使用visit方法: import h5py def print_it(name): dset = f[name] print(dset) print(type(dset)) with h5py.File('test.hdf5',
..
我正在使用64位版本的Enthought Python,以处理多个HDF5文件中的数据.我在64位Windows上使用h5py版本1.3.1(HDF5 1.8.4). 我有一个对象,可以为我的特定数据层次结构提供方便的接口,但是独立测试h5py.File(fname,'r')会产生相同的结果.我正在遍历一长串列表(一次约100个文件),并尝试从文件中提取特定信息.我遇到的问题是,我从几个文件
..
我正在尝试增加HDF5文件的缓存大小,但似乎无法正常工作. 这就是我所拥有的: import h5py with h5py.File("test.h5", 'w') as fid: # cache settings of file cacheSettings = list(fid.id.get_access_plist().get_cache())
..
如何在h5py中绕过磁盘I/O?目前,我必须执行以下操作: msg = socket.recv() fp = open("tmp.hdf5", 'wb') fp.write(msg) fp.close() f = h5py.File('tmp.hdf5', 'r') ... # alter the file fp = open("tmp.hdf5", 'rb') msg = fp.rea
..
我想知道是否有一种简单的方法可以使用h5py检查HDF5文件中是否存在节点. 我在文档中找不到任何内容,所以现在我正在使用异常,这很丑. # check if node exists # first assume it exists e = True try: h5File["/some/path"] except KeyError: e = False # now we kn
..
有人有从h5py更新hdf5数据集的想法吗? 假设我们创建一个像这样的数据集: import h5py import numpy f = h5py.File('myfile.hdf5') dset = f.create_dataset('mydataset', data=numpy.ones((2,2),"=i4")) new_dset_value=numpy.zeros((3,3),"=i
..
我正在Ubuntu服务器上安装h5py.但是,它似乎返回一个错误,指出未找到h5py.h.当我使用pip或setup.py文件安装它时,它会给出相同的错误消息.我在这里想念什么? 我的Numpy版本为1.8.1,高于要求的1.6或更高版本. 完整的输出如下: van@Hulk:~/h5py-2.3.1⟫ sudo python setup.py install libhdf5.s
..
给出一个混合文本/数字的大型CSV文件(10 GB),在保持合理的内存使用率的同时,创建具有相同内容的HDF5文件的最快方法是什么? 如果可能,我想使用h5py模块. 在下面的玩具示例中,我发现了一种将数据写入HDF5的非常慢和非常快的方法.最好的做法是以10,000行左右的块写入HDF5吗?还是有更好的方法将大量数据写入此类文件? import h5py n = 100000
..