내 랩톱에 가상 분산 모드로 Hadoop을 설치했습니다. OS는 Ubuntu입니다. 파일이 아래 보이는기계를 다시 시작할 때마다 HDFS를 포맷해야하는 이유는 무엇입니까?
hdfs-site.xml
하둡 (/tmp
폴더에 기본 하둡 데이터를 저장하여) 데이터를 저장합니다
내가 변경 한 경로 : 지금은 컴퓨터를 다시 시작하고 시작하려고 할 때마다
<property>
<name>dfs.data.dir</name>
<value>/HADOOP_CLUSTER_DATA/data</value>
</property>
hadoop 클러스터 start-all.sh
스크립트를 사용하여 데이터 노드가 시작되지 않습니다. 로그를 확인하고 jps
명령을 사용하여 데이터 노드가 시작되지 않았 음을 확인했습니다.
그럼
- 중지 클러스터.
hadoop namenode -format
명령을 사용하여 포맷 된 HDFS입니다.start-all.sh
스크립트를 사용하여 클러스터를 시작했습니다.
stop-all.sh
스크립트를 사용하여
이제 클러스터를 중지했다가 다시 시작해도 문제가 없습니다. 컴퓨터를 다시 시작하고 클러스터를 시작하려고 할 때만 문제가 발생합니다.
- 누구와 비슷한 문제가 발생 했습니까?
- 왜 이런 일이 발생하고
- 이 문제를 어떻게 해결할 수 있습니까? 당신이 실제로 데이터를 만들어 멀리
/tmp
에서dfs.datanode.data.dir
을 변경하여
기본 위치는 지금 :
당신이 원하는 경우, 당신은 쉽게이 속성을 추가 할 수 있습니까? –
@sonic, 귀하의 의견에 따라 제 질문을 수정했습니다. – Shekhar
당신은 아래 답변을 가지고 있습니다 :) –