hdfs에 업로드 된 데이터가 hadoop 클러스터의 데이터 노드를 통해 블록으로 복제된다는 것을 알고 있습니다. 내 질문은 클러스터에있는 모든 데이터 노드의 용량이 부족한 경우 어떻게됩니까? 예 : 나는 각각 10GB 데이터 용량 (30GB 모두)을 가진 3 개의 데이터 노드를 가지고 있으며 같은 클러스터의 hdfs에 60GB 크기의 데이터를 삽입하려고합니다. 나는 60GB 데이터가 데이터 노드에 의해 수용 될 수있는 블록 (보통 ~ 64MB)으로 어떻게 분할 될 수 있는지 보지 못합니까?hdfs에 삽입 할 데이터가 데이터 노드의 용량보다 큰 경우 어떻게됩니까?
감사
그게 내가 생각한 것입니다. 나는 단지 이것에 대한 어떤 언급도 보지 못했고, 나는 그것에 대해 생각한 유일한 사람처럼 보였다. 감사 – rotunba