1
큰 데이터를 처리 할 때 Shark/Spark SQL을 사용하면 Spark는 Out Of Memory
에 경고합니다. 터널링 GC는 사용하지 않습니다. 원시 데이터가 너무 커서 처리 할 수 없다고 생각합니다.Shark/Spark SQL에 필요한 메모리를 계산하는 방법은 무엇입니까?
제 질문은 Spark에 할당 할 메모리를 예측할 수있는 방법입니까, 아니면 Spark에 특정 메모리가 주어지면 Spark에서 처리 할 수있는 최대 데이터를 계산할 수 있습니까?
이제는 문제가 해결되었습니다. 그 이유는 정리를 설정하는 것을 잊었다는 것입니다. – tonyking