우분투에 hadoop을 설치했습니다. 내가 폴더를 하둡에 갈 때Hadoop - 해당 파일이나 디렉토리가 없습니다.
터미널을 통해 (하둡을 확인하는 제대로 여부 설치)이 쓰기 ..
bin/start-all.sh
그것은 나에게 오류를 제공합니다 ...
bash: bin/start-all.sh: No such file or directory
수 아무도 여기서 뭐가 잘못 됐는지 말해?
우분투에 hadoop을 설치했습니다. 내가 폴더를 하둡에 갈 때Hadoop - 해당 파일이나 디렉토리가 없습니다.
터미널을 통해 (하둡을 확인하는 제대로 여부 설치)이 쓰기 ..
bin/start-all.sh
그것은 나에게 오류를 제공합니다 ...
bash: bin/start-all.sh: No such file or directory
수 아무도 여기서 뭐가 잘못 됐는지 말해?
그 대답을 아마도 너무 오래 그러나 여기 솔루션
모든 것이 정확하다면, 당신은
sbin/start-all.sh
하지
bin/start-all.sh
sbin에/start-all.sh가있다 시도해야입니다 right 명령이며이 명령은 더 이상 사용되지 않습니다.
는 네임 노드와 데이터 노드가 다음 명령을 사용하여 시작하려면, sbin에/start-dfs.sh sbin에/start-yarn.sh또한 JPS는 네임 노드와 데이터 노드 데몬이 있는지 확인하는 명령을 실행 시작되었습니다.
namenode 및 datanode가 동일한 id를 가리키면 mapreduce 예제를 실행할 때 문제가 발생합니다.
데몬을 적절히 설치하고 시작하는 방법에 대한 자세한 내용은 myhobbyandexperiments.wordpress.com을 참조하십시오.
1 단계 :
start-all.sh
2 단계 :
start-yarn.sh
3 단계 : 이름 노드와 데이터 노드를 확인하려면 실행 또는도
jps
4 단계됩니다
hadoop version
호프가 잘 작동해야합니다.
간단합니다. 환경 설정이 올바르지 않습니다. Hadoop은 어떻게 설치 했습니까? $ CLASSPATH는 어떻게 생겼습니까? $ HADOOP_HOME은 어떻게 생겼습니까? 돌아가서 모든 PATH를 올바르게 설정했는지 확인하십시오. – apesa
그래, 내가 그랬어 ... 이제 내가 JAVA_Home로 엉망으로 생각 .. 그것은 나에게 JVM을 제공하지 않습니다 .. 거기에 붙어 .. 당신은 다른 방법으로 알고 계십니까? –
아니요, CLASSPATH 및 HADOOP_HOME 변수를 올바르게 설정해야합니다. HADOOP 변수 및 JAVA_HOME에 대해 .bashrc 프로필에 추가 한 것을 게시하십시오. – apesa