저는 hadoop을 처음 사용하고 있으며 지난 몇 시간 동안이 문제를 Google에 보냈지만 도움이되는 정보는 찾을 수 없었습니다. 내 문제는 HDFS에 의하면 파일을 쓰는 과정이 오래 전에 끝났다고하더라도 파일이 아직 열려 있다고합니다. 이로 인해 파일에서 읽을 수 없습니다.HDFS에 따르면 파일은 아직 열리지 만 프로세스 쓰기가 종료되었다고합니다
나는 디렉토리에서 fsck를 실행했으며 모든 것이 정상이라고보고합니다. 그러나 나는 "하둡 fsck를 -fs HDFS를 : // 하둡/로그/원료/directory_containing_file -openforwrite"를 실행했을 때 얻을 내가 openforwrite입니다 파일에 다시 fsck 명령을 수행
Status: CORRUPT
Total size: 222506775716 B
Total dirs: 0
Total files: 630
Total blocks (validated): 3642 (avg. block size 61094666 B)
********************************
CORRUPT FILES: 1
MISSING BLOCKS: 1
MISSING SIZE: 30366208 B
********************************
Minimally replicated blocks: 3641 (99.97254 %)
Over-replicated blocks: 0 (0.0 %)
Under-replicated blocks: 0 (0.0 %)
Mis-replicated blocks: 0 (0.0 %)
Default replication factor: 2
Average block replication: 2.9991763
Corrupt blocks: 0
Missing replicas: 0 (0.0 %)
Number of data-nodes: 23
Number of racks: 1
얻을
.Status: HEALTHY
Total size: 793208051 B
Total dirs: 0
Total files: 1
Total blocks (validated): 12 (avg. block size 66100670 B)
Minimally replicated blocks: 12 (100.0 %)
Over-replicated blocks: 0 (0.0 %)
Under-replicated blocks: 0 (0.0 %)
Mis-replicated blocks: 0 (0.0 %)
Default replication factor: 2
Average block replication: 3.0
Corrupt blocks: 0
Missing replicas: 0 (0.0 %)
Number of data-nodes: 23
Number of racks: 1
누구에게 무슨 일이 일어나고 있고 어떻게 해결할 수 있는지 아이디어가 있습니까?
방금 비슷한 문제가 발생했습니다. 당신의 해결책은 무엇입니까? HDFS에서 손상된 파일을 제거 했습니까? – Aaron
손상된 파일을 복구 할 수 없습니다. 우리는 방금 손상된 파일을 삭제하고 다시 발생하지 않도록 위에 언급 된 단계를 수행했습니다. – jwegan