2014-07-07 3 views
2

Hadoop 용 hdfs 파일 시스템이 제대로 작동하는지보고 싶습니다. jps은 실행중인 데몬을 나열하지만 실제로 어떤 데몬을 찾을지는 알지 못합니다. hdfs가 실행 중인지 확인하는 방법은 무엇입니까?

나는 다음과 같은 명령을 실행 : $HADOOP_PREFIX/sbin/hadoop-daemon.sh start namenode

$HADOOP_PREFIX/sbin/hadoop-daemon.sh start datanode

$HADOOP_PREFIX/sbin/yarn-daemon.sh start resourcemanager

$HADOOP_PREFIX/sbin/yarn-daemon.sh start nodemanager

만 네임 노드, ResourceManager에, 그리고 내가 jps를 입력 할 때 nodemanager 등장.

hdfs/Hadoop이 작동하려면 어떤 데몬이 실행되고 있습니까? 또한, 만약 당신이 hdfs가 실행되고 있지 않다면 그것을 고칠 수 있습니까?

+0

는 HDFS에 해당하는 데몬 기억하지 그 실행 여부와 확실하지 않은 경우를, 당신은 무엇을'하둡을 확인하실 수 있습니다 dfs -ls /'명령 출력 – vefthym

답변

7

를 사용하여 다음 방법 중 하나를 상태 당신의 deamons 확인을 위해

  1. JPS 명령이

  2. 아래에 가장 적합한 모든 활성 deamons을 나열합니다

    hadoop dfsadmin -report 
    

    이는 것 기본적으로 의미있는 의미의 데이터 노드 목록을 HDFS

  3. cat hdfs 경로에서 사용 가능한 모든 파일.

+0

"cat"은 무엇을 의미합니까? – user2590144

+0

hdfs -cat

+0

sudo -u hdfs hadoop dfsadmin -report 이는 종합 보고서의 경우 이와 같이 수행해야합니다. –

3

그래서, 내 설정을 (이 괜찮다고)의 유효성을 검사 2 주, 마지막으로이 명령을 발견 보냈다 :

sudo -u hdfs jps 

처음에 내 간단한 JPS의 명령은 하나 개의 프로세스를 보여주는데,하지만 우분투에서 하둡 2.6 LTS 14.04가 가동되었습니다. 시작 스크립트를 실행하기 위해 'Sudo'를 사용하고있었습니다. 여기

은 JPS는 여러 프로세스 목록 작업의 시작이다 :

sudo su hduser 
/usr/local/hadoop/sbin/start-dfs.sh 
/usr/local/hadoop/sbin/start-yarn.sh 
관련 문제