hbase

    0

    2답변

    대 얻을 내가 HBase를 테이블에서 1000 개 행을 검색하고 싶습니다 rowkeys은 다음과 같이 구성되어있다 : row1: 1000|0001 ... row1000: 1000|1000 내 질문은, 것 그것은 1000|0001에서 1000|1000의 범위 스캔을 실행하는 것이 더 또는 각 행에 대해 get을 개별적으로 발행하여 배치로 제출하십시오.

    0

    1답변

    Hbase 스캔에 endrow을 포함하고자합니다. 어느 쪽이 더 낫습니까? 첫 번째 방법 :[start, stop] Filter filter = new InclusiveStopFilter(stop); Scan scan = new Scan(); scan.setStartRow(start); scan.setFilter(filter); 번째 방법 : (1

    0

    1답변

    hbase 문서 전체에서 다음과 같은 문을 찾을 수 있습니다. 동일한 명령을 테이블 참조에서도 실행할 수 있습니다. 테이블 't1'에 대한 참조가 있다고 가정하면 해당 명령은 ... 그러나 hbase 셸에서 쿼리를 만들 때 쿼리 된 개체에 대한 참조를 얻는 방법을 찾을 수 없습니다. 어떻게 테이블에 대한 참조를 얻습니까? 더 중요한 것은,받은 값에 대한 참

    0

    2답변

    10TB 이상의 데이터를 저장하는 Hbase 클러스터를 구축 했으므로이 데이터를 새 클러스터로 마이그레이션해야합니다. 어떻게해야합니까? Hbase 백업에는 완전 종료 백업 (Distcp) 및 라이브 클러스터 백업 (복제, 내보내기 및 복사 테이블)이 있음을 알고 있습니다. 필자의 경우 Hbase 클러스터의주기적인 전체 종료를 용인 할 수 없으며 복제가 내역

    0

    2답변

    안녕하십니까. 처음으로 TB 결재를 한 다음 20 밀리그램 증분을 삽입/업데이트/삭제와 같이 xml 형식으로 저장해야하는 애플리케이션을 개발했습니다. 이 5TB의 데이터 위에 적용됩니다. 그리고 마침내 요청에 따라 모든 데이터의 전체 스냅 샷을 생성하고 각 데이터가 해당 파일에 있어야하므로 논리를 기반으로 5K 텍스트 파일을 만들어야합니다. HBase를 사

    0

    1답변

    데이터 프레임이 있고 그것을 hbase에 삽입하고 싶습니다. 나는이 documenation을 따른다. val tableName = "two" val conf = HBaseConfiguration.create() if(!admin.isTableAvailable(tableName)) { print("-------------------------

    0

    1답변

    내 CentOS 서버에 Ambari 서버를 설치했습니다. Impal을 설치하려고하는데 Hive의 실시간 데이터를 읽고 싶지만 설치할 수 없습니다. 다음 링크에서 참조를 가져 왔습니다. https://github.com/cas-bigdatalab/ambari-impala-service 내가 식별 할 수없는 어딘지 & 어떤 파일 임팔라 리포 코드를 넣어 필요가

    1

    2답변

    HBase REST API를 처음 사용하고 설정을 위해 일련의 결과를 얻을 수있는 방법을 찾으려고했습니다. 나는 이드의 명령을 받아 들일 것이다. 일괄 처리가 테이블의 각 ID에 대한 요청을하는 대신 내 코드의 성능을 향상시키는 데 도움이됩니다. 일부 예제 Hbase java rest API 코드가 유용 할 것입니다. 미리 감사드립니다.

    0

    1답변

    내가 아래로 클래스 A가 말 JAVA API를 통해 목록을 포함하는 기존의 자바 객체 업데이트 : 클래스 A { 목록 < 문자열 > ID를; }는 처음에 나는 나중에 내가, 목록에서 하나의 아이디를 삭제 내가 삭제 가정 몇 가지 요구 사항을 기반으로, 목록에있는 이드의 말 '1'& '2'저장 '2'. 그런 다음 목록에서 ID '2'를 삭제하여 개체를 업데이

    0

    1답변

    내 개발 환경은 centos7, hbase 1.2.5, happybase 1.1.0, python 2.7, PyCharm, hadoop 2.7.3, spark 2.1입니다. 큰 데이터 소프트웨어를 개발 중입니다. 값을 HBase 테이블에 넣어야합니다. Spark RDD의 값입니다. 다음은 코드입니다. import happybase from pyspark