hdf5

    0

    1답변

    라이브러리 HDF5를 사용하여 바이너리로 저장하고 있습니다. 사용자 정의 된 "전역"데이터 형식을 갖고 싶습니다. 처음에 초기화 한 다음 필요할 때 사용할 수 있습니다. 예를 들어 "Vector"(두 개의 구성 요소가 x, y 인 구성 요소 인 경우)의 복합 유형을 정의하려고합니다. 나는 (I 기본적으로이 대답에서 걸렸다 : https://stackover

    -1

    1답변

    HDF 파일에 속성을 쓰려고하는데, 정수가 아닌 실제 값이 아니라면 특성의 적절한 값을 쓰도록 코드가 관리합니다. 이 코드입니다 ! Number of processes is assumed to be 4 ! PROGRAM DATASET_BY_CHUNK USE HDF5 ! This module contains all necessary module

    4

    1답변

    재무 데이터가 포함 된 대형 팬더 데이터 프레임이 있습니다. 추가 열과 DataFrame을 내 .h5 파일에 추가하고 연결하는 데 문제가 없습니다. 재무 데이터가 매분마다 업데이트되므로 매분 내 .h5 파일 내부에있는 기존의 모든 테이블에 데이터 행을 추가해야합니다. 여기까지 시도했지만, 내가 무엇을해도, .h5 파일을 덮어 쓰고 데이터를 추가하지 않습니다

    0

    1답변

    PyTables HDF5 테이블에 저장하려는 모든 값은 실수이며, 따라서 일반 테이블보다 2D 배열을 선택하는 것이 논리적입니다. 그러나 배열의 많은 셀에 대해 값을 사용할 수 없으므로 (나중에 사용할 수있게 됨)이를 나타낼 수있는 합리적으로 간단한 방법은 셀에 NaN을 할당하는 것입니다 (이해할 수있는 한 None을 넣을 수는 없습니다). 나는 테이블을

    -1

    1답변

    비디오 분류 (C3D)에 hdf5 레이어를 사용하고 있습니다. 이것은 data.h5은 파일 video.list에 저장됩니다, 내 코드는 지금 HDF5 파일 import h5py import numpy as np import skvideo.datasets import skvideo.io videodata = skvideo.io.vread('./v_A

    0

    1답변

    저는 웹 사이트에서 HDF5 용 Java 예제를 시험 중입니다. 은 내가 단지 1 행이 기록 된 것을 발견 https://support.hdfgroup.org/ftp/HDF5/current/src/unpacked/java/examples/datatypes/H5Ex_T_Bit.java bitfield datatype 예를 시도했다. 나머지는 쓰여지지 않습니다

    0

    1답변

    multiprocessing.dummy 패키지와 deepdish에 압축 된 h5 파일을 쓰는데 문제가 있습니다. 이것은 내가 뭐하는 거지입니다 : 나는 명령을 저장 deepdish 언급 할 때 import deepdish as dd from multiprocessing.dummy import Pool def writeThings(args):

    1

    2답변

    - : 블록 배열 dataspace으로부터 선택된 요소의 블록의 크기를 결정한다. 예는 다음과 같은 -에 설정된 파라미터를 갖는 2 × 2 세트에서 보여 start offset is specified as [1,1], stride is [4,4], count is [3,7], and block is [2,2] 21 × 2 블록을 초래할 것이다. 선택 범

    2

    1답변

    저는 python 3.5에서 scrapy를 사용하여 scraper를 만들고 있습니다. 나는 군중 기금 모금 포럼에서 프로젝트를 고치고 hdf5 파일에 데이터를 저장하고 있습니다. 프로젝트 스크랩은 찢어진 URL 목록을 읽음으로써 완료되며, 각 프로젝트의 정보는 여러 열이있는 테이블 행으로 저장됩니다. 이 스크립트는 내 스크립트의 맨 위에 있습니다. clas

    1

    1답변

    저는 현재 간단한 분류 작업을 위해 CNN (Keras/Tensorflow)을 교육하기 위해 큰 이미지 데이터 세트 (~ 60GB)로 작업 중입니다. 이미지는 비디오 프레임이므로 시간에 상관 관계가 높습니다. 그래서 거대한 .hdf5 파일을 생성 할 때 이미 데이터를 섞어서 ... 전체 세트를 메모리에 한 번에로드하지 않고도 CNN에 데이터를 제공하려면 간