2016-10-20 3 views
4

안녕하세요, 저는 hadoop을 처음 사용하고 hdfs에 twitter_data라는 디렉토리를 만들려고합니다. 나는 softlayer에 내 VM을 설치했다. 설치된 &이 성공적으로 시작되었다. hdfs dfs -mkdir 아니요 그런 파일이나 디렉토리가 없습니다

내가 실행하려고하고있는 표창이다

HDFS DFS -mkdir HDFS : // localhost를 : 9000/사용자/하둡/twitter_data

그리고이 오류 메시지를 반환 유지 :

/usr/local/hadoop/etc/hadoop/hadoop-env.sh: line 2: ./hadoop-env.sh: Permission denied 
16/10/19 19:07:03 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
mkdir: `hdfs://localhost:9000/user/Hadoop/twitter_data': No such file or directory 

왜 그런 파일 및 디렉토리가 없다고 말합니까? 나는 디렉토리를 만들 것을 주문하고 있는데, 그냥 디렉토리를 만들면 안 될까요? 권한 문제가 아닐까 싶습니다만 해결할 수 없습니다. 제발 도와주세요 hdfs 전문가. 나는 단순한 문제인 것처럼 보이는 것에 너무 많은 시간을 보냈습니다.

미리 감사드립니다.

+0

아, 내 브라우저에서이 hdfs를 볼 수 있기를 원합니다. 어떻게 접근 할 수 있습니까? –

+0

'hdfs dfs -mkdir -p/user/Hadoop/twitter_data'을 시도했는데 이걸 '/usr/local/hadoop/etc/hadoop/hadoop-env.sh : line 2 : ./hadoop-env .sh : 사용 권한이 거부되었습니다. 16/10/19 19:25:37 WARN util.NativeCodeLoader : 해당 플랫폼에 native-hadoop 라이브러리를로드 할 수 없습니다 ... 가능한 경우 기본 Java 클래스 사용 mkdir : master.someplace에서 호출합니다. net/198.23.84.123 to localhost : 9000 연결에 예외가 발생했습니다 : java.net.ConnectException : Connection refused; 자세한 내용은 다음을 참조하십시오 : http : // wiki.apache.org/hadoop/ConnectionRefused' 브라우저에서 이것을 볼 수 있어야합니다. –

+0

btw, 아무도 내게 무슨 차이가 단지 디렉토리를 만드는 대 hdfs : // localhost : 9000 앞에서 무엇을 설명 할 수 있습니까? 두 경우 모두 예제를 보았습니다. hdfs : // localhost : 9000 makes은 브라우저를 통해 액세스 할 수 있다고 가정했습니다. 내가 틀렸다면 나를 바로 잡으세요. –

답변

6

부모 디렉토리가 아직 존재하지 않기 때문입니다. 시도하십시오 hdfs dfs -mkdir -p /user/Hadoop/twitter_data. -p 플래그는 지정된 디렉토리로 연결되는 존재하지 않는 모든 디렉토리도 생성됨을 나타냅니다.

의견에 제기 한 질문에 대해서는 브라우저 http://<host name of the namenode>:<port number>/에 간단히 입력하십시오.

+0

고맙습니다. 나는 그것을 시도했다. 그리고 나는이 오류 메시지'/usr/local/hadoop/etc/hadoop/hadoop-env.sh : line 2 : ./hadoop-env.sh : Permission denied'을 보았습니다. 해결 방법을 알고 있습니까? 이 문제? –

+0

감사합니다. 항상 권한 문제입니다!그것을 해결 –

3

아래 단계가 디렉토리 생성 명령을 사용 : 네임 노드)

1 하둡을 실행하지 않고 포맷 : -에 의해

$ hadoop namenode -format 

2)를 실행 하둡 -

$ start-all.sh 

3) 이제 첫 번째 디렉토리를 만들고 같은 디렉토리에 다른 디렉토리를 만듭니다.

$ hadoop fs -mkdir /user 
$ hadoop fs -mkdir /user/Hadoop 
$ hadoop fs -mkdir /user/Hadoop/tweeter_data 

위의 단계를 수행하여 문제를 해결하십시오.

관련 문제