2
100GB의 파일이 있다고 가정합니다. 그리고 내 시스템은 60GB입니다. 어떻게 아파치 스파크가이 데이터를 처리할까요? 우리 모두는 spark가 클러스터를 기반으로 자체적으로 파티션을 수행한다는 것을 알고 있습니다. 하지만 메모리가 줄어들면 스파크가 어떻게 처리하는지 알고 싶습니다.Apache spark- bigdata
100GB의 파일이 있다고 가정합니다. 그리고 내 시스템은 60GB입니다. 어떻게 아파치 스파크가이 데이터를 처리할까요? 우리 모두는 spark가 클러스터를 기반으로 자체적으로 파티션을 수행한다는 것을 알고 있습니다. 하지만 메모리가 줄어들면 스파크가 어떻게 처리하는지 알고 싶습니다.Apache spark- bigdata
RAM이 60GB입니까? 일반적으로 스파크는 요청하지 않는 한 데이터 세트를 디스크에 저장하지 않습니다. –
데이터 세트를 메모리에 영구 저장 하시겠습니까? :) – Bacon