2012-02-25 1 views
0

저는 centos linux에 (localhost 대신) 일부 IP 주소로 실행되도록 hadoop 단일 인스턴스 클러스터를 구성했습니다. 예제 mapreduce 작업을 올바르게 실행할 수있었습니다. 그건 내가 hadoop 설정 괜찮을 것으로 나타납니다.PDI hadoop 파일 브라우저 목록이 없습니다

나는 또한 "/ 데이터"폴더에서 하둡, 데이타베이스에 데이터 파일의 몇 가지를 CH3OH 내가 PDI/주전자에서이 HDFS 시스템에 연결하려고

bin/hadoop dfs -ls /data 

은 "DFS"COMAND을 통해 볼 수 있습니다 한

. HDFS 파일 브라우저에서 HDFS 연결 매개 변수를 잘못 입력하면 (예 : 포트가 틀리면 HDFS 서버에 연결할 수 없다는 메시지가 나타납니다. 대신 모든 매개 변수 (서버, 포트, 사용자, 비밀번호)를 올바르게 입력하고 '연결'을 클릭하면 오류가 발생하지 않으며 연결이 가능합니다. 그러나 파일 목록에는 "/"가 표시됩니다.

데이터 폴더를 표시하지 않습니다. 무엇이 잘못 될 수 있습니까?

  1. 루트를 사용하여 시도 "빈/하둡 DFS는 -R 777/데이터를 -chmod"를 사용하여 데이터 파일에 chmod를 777을 시도하고도 리눅스를 HDFS :

    나는 이미 해봤

  2. 가 다른 위치에있는 데이터 파일을 추가 시도 PDI 파일 브라우저에서 사용자

  3. 재 포맷 HDFS SEV ERAL 시간과 추가 데이터 파일을 다시

  4. PDI의 extlib

에 설치 하둡에서 하둡 코어 jar 파일을 복사하지만 PDI 브라우저에서 파일을 나열하지 않습니다. PDI 로그에서 아무 것도 볼 수 없습니다 ... 빠른 도움이 필요합니다 ... 감사합니다 !!!

-abhay

답변

0

이 문제가 발생했습니다. 창에서 PDI는 로그 파일에 아무것도 로깅하지 않았습니다. 나는 리눅스에서 아파치의 라이브러리가 없다는 것을 로그에 보여 주었을 때, 같은 것을 시도했다. 나는 같은 최신 버전을 다운로드하여 extlib/pentaho 폴더와 붐 아래에 두었다. 그것은 일했다!