현재 4 노드 멀티 클러스터에서 작업 중입니다. 누구든지 22GB 입력 파일에서 작업 할 수있는 적절한 크기의 블록을 제안 할 수 있습니까? 미리 감사드립니다. hadoop의 블록 크기
다음은 성능 결과입니다. 64M - 32 분. 128M - 19.4 분 256M - 15 분
이제는 1GB/2GB보다 훨씬 커야합니까? 그렇게하면 문제가 있는지 친절하게 설명하십시오.
편집 : 또한 , 경우 기본 블록 크기의 경우 64MB 1백28메가바이트 인 이유 20GB의 입력 파일의 블록 크기를 증가와 성능 향상? Kindly answer similar question over here
이상적은 128M 또는 256M – SMA
@ almasshaikh 좀 더 구체적으로 할 수 있습니까? 결과는 64M, 128M 및 256M 경우 어떻게 달라질까요? 감사합니다 – re3el