2017-09-06 14 views
1

자바에서 CsvBulkLoadTool을 사용하여 HBase 테이블에 csv 데이터 파일을 저장하려고합니다.Windows에서 실행 중 Phoenix CsvBulkLoadTool 오류가 발생했습니다.

HBase와 Phoenix가 Ubuntu VM에서 실행 중입니다. 나는 윈도우에서 CsvBulkLoadTool.run()를 실행하면

내가 다음 예외를 얻을 :

java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar 

: 그건 그렇고

java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename. 

을 나는 우분투 VM에서 실행중인 내 샘플 응용 프로그램을 java -jar 때, 나는 NEX 예외가 /usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar은 Ubuntu VM의 실제 jar 파일 위치입니다.

hereCsvBulkLoadTool 샘플을 사용했습니다.

또한 피닉스를 통해 테이블을 연결하고 채우는 데 일반 JDBC를 사용할 때 모든 것이 작동합니다.

+1

나는 실행하기 위해 CSV는 HBase와의 HDFS 내의 인스턴스에 줄 알았는데? 그럴까요? –

답변

0

CSVBulkloadTool은 hadoop jar으로 실행해야합니다.

그래서 실행해야합니다 hadoop jar my-application-with-CSVBulkloadTool.jar

관련 문제