2017-12-24 1 views
0

PySpark에서 RDD의 의존성을 검색하려면 어떻게해야합니까?pyspark에서 RDD 의존성을 검색하는 방법은 무엇입니까?

public final scala.collection.Seq<Dependency<?>> dependencies() 

내가 PySpark RDD class에 상응하는 방법을 볼 수 없었다 :

스칼라는 dependencies() 방법이있다. PySpark에서 RDD 의존성을 검색 할 수있는 다른 방법이 있습니까?

나는 toDebugString 방법을 보았습니다. 하지만 이것은 대화 형 스파크 세션에만 적합합니다.

답변

1

pyspark api에 대한 정보가 있습니다. toDebugString()

toDebugString (자기)이 RDD의
설명 및 디버깅에 대한 순환 종속성을 찾고있는 방법이다.

+0

그러나 나는이 방법을 보았습니다. 이를 반영하기 위해 질문을 업데이트했습니다. –

관련 문제