2017-02-17 1 views
0

vmware 기반의 hadoop 클러스터를 만들고 sbin/start-dfs.sh 명령을 사용하면 ssh에 관한 문제가 발생합니다. 이제 호스트 이름을 해결하지 못했습니다 : 호스트 이름Hadoop 설정 문제 : "ssh : 호스트 이름을 확인할 수 없습니다. : 호스트 이름과 연결된 주소가 없습니다"

내가 호스트 이름과 IP 주소를 확인하는 vi /etc/hosts 명령을 사용한

vi /etc/profile 명령과 관련된 주소 : 그것은

SSH를 말한다. 나는 잘못이 없음을 확인합니다.

+0

단일 노드 또는 다중 노드 클러스터입니까? – daemon12

+0

이것은 다중 노드 클러스터입니다. –

답변

0

몇 가지 제안

HDFS-site.xml 파일에 호스트 이름이 올바르게 설정되어있는 경우
  1. 확인합니다. 단일 호스트 설정으로 실행하고 namenode 호스트를 localhost로 설정하는 경우 localhost가/etc/hosts에 127.0.0.1로 매핑되어 있는지 확인해야합니다. 여러 노드를 설정하려면 구성에서 각 호스트의 FQDN을 사용하고 각 FQDN이/etc/hosts에 올바른 IP 주소로 매핑되어 있는지 확인하십시오.
  2. 암호없는 SSH를 설치하십시오. 참고 start-dfs.sh를 사용하려면이 명령을 클러스터 노드의 나머지 부분에 실행하는 호스트의 암호없는 SSH 설정이 필요합니다. ssh hostx date으로 확인하고 비밀번호를 묻지 않습니다.
  3. 오류 메시지의 호스트 이름을 확인하십시오 (전체 로그를 붙여 넣지 않았을 수 있음). 문제가있는 호스트 이름의 경우 SSH 명령을 수동으로 실행하여 해결할 수 있는지 확인하십시오. 그렇지 않으면/etc/hosts를 확인하십시오. 127.0.0.1 localhost를이 localhost.localdomain

    :: 1 localhost를

    172.16.151.224 host1.test.com host1의

    을 localhost.localdomain

같은 일반적인/etc/hosts 파일 설정 보인다

172.16.152.238 host2.test.com host2의

172.16.153.108 host3.test.com host3에게

,
관련 문제