greenplum

    1

    1답변

    HAWQ에로드 할 테이블의 저장 크기 계산/추정에 관한 질문이 있습니까? 은 내가 HAWQ 예에 PXF를 사용하여로드하려고 HIVE에서 30메가바이트 테이블을 가지고 : 가 선택 같은 테이블 T2 테이블 데이터를 작성 * hcatalog.default.afs_trvn_mktscn_population에서; HAWQ의 테이블이 369MB의 저장 공간을 차지합니

    0

    1답변

    소스 및 대상 시스템이 있습니다. talend 도구를 사용하여 SQL Server 2012에서 Pivotal Hadoop (PHD 3.0) 버전으로 데이터를 가져 오려고합니다. 얻기 오류 : ERROR: extra data after last expected column (seg0 slice1 datanode.domain.com:40000 pid=15035

    0

    1답변

    두 개의 테이블을 입력으로 사용하는 프로세스가 있습니다. 여기에 내 시나리오가 있습니다 .. 프로세스가 실행될 때 두 개의 입력 테이블에있는 데이터가 이전 실행 중에 변경된 내용 (삽입 또는 업데이트 또는 자르기 또는 삭제)이 변경되었는지를 알아야합니다. 방법. 기본적으로 이것이 실행이 새로운 실행인지 또는 프로세스 실패 후 실행인지를 결정하는 내 기준 중

    0

    1답변

    Greenplum DB를 처음 사용했습니다. greenplum 4.3.7.2 버전을 설치했습니다. 이제 다른 시스템에 설치된 Hadoop 시스템을 연결해야합니다. GPHDFS을 설치하고 hadoop hdfs 파일을 어떻게 연결해야하는지 조언하십시오. 그린 플럼 하둡에 대해 서로 다른 호스트의

    0

    1답변

    링크를 사용하여 "한 시간 HDFS 프로토콜 설치"완료 1) - data/etl/ext01 - 2 http://gpdb.docs.pivotal.io/4360/admin_guide/load/topics/g-one-time-hdfs-protocol-installation.html#topic20)이 경로에 HDFS 시스템에서 'CSV'파일을 복사를 3) 명령을

    1

    2답변

    나는 큰 개체 포스트 그레스 9.4에서이 같은 (LO)를 포함하여 데이터를 내보낼 pg_dump을 사용 :에 $ pg_dump fhir -O -b > fhir.sql 소호 문을 내 fhir.sql이처럼 생성 : SET standard_conforming_strings = on; SELECT pg_catalog.lowrite(0, '\x1f8b08000

    0

    1답변

    호스트 파일의 호스트 이름 (S) 앞뒤에 여분의 공백이없고 ssh mdw을 사용하면 mdw에 연결할 수 있습니다. /etc/hosts은 다음과 같이이다 : 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.local

    0

    1답변

    나는 gpdb를 배우고있다. 그리고 외부 테이블에 혼란 스러워요. 다음은 내 이해입니다. 읽기 전용 테이블의 경우 gpdb는 테이블의 메타 데이터 만 생성합니다. 모든 데이터는 hdfs와 같은 원격 서버에 저장됩니다. 쿼리 할 때 데이터는 원격 서버에서 세그먼트로 전송됩니다. 쿼리가 끝나면 데이터가 세그먼트에 저장되지 않습니다. 쓰기 전용 테이블의 경우 g

    0

    1답변

    내가 postgres=# CREATE EXTERNAL TABLE csv_hdfs_lineitem (like a) LOCATION ( 'gphdfs://xxxxx/gptest/lineitem.csv' ) FORMAT 'text' (delimiter E'|' null E'\\N' escape E'off' fill missing fields) ENCO

    1

    1답변

    의 greenplum에서 gphdfs.so를 생성하도록 구성하는 방법은 무엇입니까? 내가 postgres=# CREATE EXTERNAL TABLE csv_hdfs_lineitem (like a) LOCATION ('gphdfs://xxxxx/gptest/lineitem.csv') FORMAT 'text' (delimiter E'|' null E'\N' e