내가이 명령을 사용하여 HDFS에서 입력 파일을 만들려고 해요에서 입력 파일을 만듭니다는 HDFS
[email protected]:/usr/local/hadoop$ ./bin/hadoop fs -mkdir /in
를하지만 나에게 연결 실패 오류 제공 :
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
16/10/09 02:12:04 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
mkdir: Call From salma-SATELLITE-C855-1EQ/127.0.1.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
I을 이미 start-all.sh와 하둡 서비스를 실행 :
이[email protected]:/usr/local/hadoop$ jps
20437 Jps
20030 SecondaryNameNode
19839 DataNode
그래서 누군가가이 문제를 해결하는 데 도움이 될 수 있습니다
시도 : hadoop dfs -mkdir -p/in 그렇지 않으면 hadoop UI를 열어보십시오 http : // localhost : 50070/ – cody123
Look Here [Here] (http://stackoverflow.com/questions/29910805/namenode-datanode) -not-list-by-using-jps) 두 번째 대답은 나를 도왔습니다 ... –
@Spyros_av 예이 단계를 수행했는데 namenode 문제가 해결되었지만 지금 다른 문제가 있습니다. 16/10/09 15:48 : 17 WARN util.NativeCodeLoader : 해당 플랫폼에 native-hadoop 라이브러리를로드 할 수 없습니다 ... 내장 Java 클래스 사용 가능 –