HDFS 블록 크기가 128MB 인 200MB의 파일을 HDFS에 쓰려고하는 경우. 200MB에서 150MB를 쓴 후에 쓰기가 실패하면 어떻게됩니까? 작성된 데이터 부분에서 데이터를 읽을 수 있습니까? 같은 파일을 다시 작성하려고하면 어떻게됩니까? 그게 복제물일까요? 실패하기 전에 작성된 150MB의 데이터는 어떻게됩니까? 쓰는 동안 실패하면hdfs에서 블록 크기보다 큰 파일 쓰기
2
A
답변
5
HDFS 기본 블록 크기, 128메가바이트입니다 (파일 확장자 복사와 함께, 그것은 하둡 관리 UI의 상태를 표시합니다.)
만 1백50메가바이트 데이터가 복사됩니다.
네, 데이터의 일부만 읽을 수 있습니다 (150MB).
복사를 다시 시작하면 이전 시점부터 계속됩니다 (경로가 같고 파일 이름이 동일한 경우).
모든 데이터에 대해 복제 요소를 기반으로 복제를 찾을 수 있습니다.
이전에 작성된 데이터는 HDFS에서 사용할 수 있습니다.
+0
감사합니다. –
관련 문제
- 1. HDFS에서 블록 복제 제한
- 2. hdfs 블록 크기보다 큰 XmlInputFormat 요소 구문 분석
- 3. MapReduce 맵 메모리가 클러스터의 블록 크기보다 큰 이유는 무엇입니까?
- 4. 정수의 크기보다 큰 값
- 5. 버퍼 크기보다 큰 Mpi_send
- 6. 큰 파일 읽기/쓰기
- 7. 거대한 큰 쓰기 파일
- 8. hdfs에서 두 파일 비교
- 9. HDFS에서 최적의 블록 크기 - 큰 블록 크기가 손상 될 수 있습니다
- 10. HDFS에서 파일 전송
- 11. hdfs에서 읽고 Oracle로 쓰기 12
- 12. 파일 시스템의 최대 파일 크기보다 큰 테이블이 있습니까?
- 13. RAM 크기보다 큰 데이터 정렬
- 14. 화면 크기보다 큰 창 설정
- 15. "최대 허용 크기보다 큰 행"
- 16. 특정 영역의 크기보다 큰 포스트그
- 17. 화면 크기보다 큰 안드로이드보기/양식
- 18. jscrollpane으로 화면 크기보다 큰 내용
- 19. 파트별로 큰 바이너리 파일 쓰기
- 20. BufferedOutputStream을 사용하여 큰 파일 쓰기
- 21. HDFS에서 직접 파일 읽기
- 22. 원격 HDFS에서 파일 읽기
- 23. HDFS에서 시퀀스 파일 추가
- 24. HDFS에서 작은 파일 분쇄
- 25. 원격 HDFS에서 파일 읽기
- 26. Java hdfs에서 파일 읽기
- 27. HDFS에서 파일 쓰기 - TextIO API 사용 Java - BufferedWriter (new FileWriter())
- 28. hdfs에서 스파크 스트리밍을 사용하여 큰 xml을 사용하십시오.
- 29. 파이썬에서 큰 파일 쓰기 다시 시작
- 30. dms 크기보다 더 큰 문자열을 비교하는 방법?
파일을 HDFS로 복사하는 방법에 따라 다릅니다. hdfs 셸 명령이나 Java 코드를 사용하고 있습니까? – Max08
사실 이것은 대답을 찾을 수없는 인터뷰 질문이었습니다. 두 사건 모두에 대해 알고 싶습니까? –