다음의 AWS EC2에 hadoop 및 spark를 성공적으로 설치했습니다. AWS의 스파크에서 HDFS에 액세스 할 수 있습니다. 내가로컬 시스템에서 AWS의 HDFS 파일에 액세스하려고 할 때 오류가 발생합니다.
val lines = sc.textFile("hdfs://namenode_public_DNS:9000/datasets/wikipedia/wikipedia.dat")
lines.first()
을 통해 내 로컬 컴퓨터에서 HDFS 파일에 액세스하려고 할 때
그러나, 나는이 문제를 해결할 수있는 방법
17/04/10 16:35:41 WARN BlockReaderFactory: I/O error constructing remote block reader.
org.apache.hadoop.net.ConnectTimeoutException: 60000 millis timeout while waiting for channel to be ready for connect. ch : java.nio.channels.SocketChannel[connection-pending remote=/datanode_ip:50010]
를 얻을?
미리 감사드립니다.
- 모든 AWS 인스턴스는 모든 트래픽을 허용하도록 설정되어 있습니다.
- 나는 외부에서 액세스 할 수 있어야 만 1 네임 노드 1 개 데이터 노드
네임 노드가 클라이언트에 반환 한 datanode의 IP는 로컬 시스템에서 액세스 할 수없는 개인 IP입니다. – franklinsijo