자바에서 CsvBulkLoadTool
을 사용하여 HBase 테이블에 csv 데이터 파일을 저장하려고합니다.Windows에서 실행 중 Phoenix CsvBulkLoadTool 오류가 발생했습니다.
HBase와 Phoenix가 Ubuntu VM에서 실행 중입니다. 나는 윈도우에서 CsvBulkLoadTool.run()
를 실행하면
내가 다음 예외를 얻을 :
java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
: 그건 그렇고
java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.
을 나는 우분투 VM에서 실행중인 내 샘플 응용 프로그램을 java -jar
때, 나는 NEX 예외가 /usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
은 Ubuntu VM의 실제 jar 파일 위치입니다.
here의 CsvBulkLoadTool
샘플을 사용했습니다.
또한 피닉스를 통해 테이블을 연결하고 채우는 데 일반 JDBC를 사용할 때 모든 것이 작동합니다.
나는 실행하기 위해 CSV는 HBase와의 HDFS 내의 인스턴스에 줄 알았는데? 그럴까요? –