0
안녕하세요 누구든지 나를 설명 할 수 아파치 '스파크 독립형'HDFS가 필요합니까?스파크 필요 HDFS
Spark 응용 프로그램 실행 중에 Spark에서 HDFS 블록 크기를 사용하는 방법이 필요한 경우. Spark 어플리케이션 실행 중에 HDFS 역할이 무엇인지 이해하려고합니다.
Spark 설명서에 따르면 처리 병렬 처리는 RDD 파티션과 집행자/코어를 통해 제어됩니다.
아무도 이해할 수 있도록 도와주세요.