그래서 저는 Spark의 collectAsMap() 메소드를 사용하여 변수에 키와 값을 저장하고 있습니다. 이제 키가 발견되지 않으면 "null"또는 다른 것을 반환하려고합니다. 어떻게해야합니까?PySpark collectAsMap no key
-2
A
답변
3
dict의 get 메소드를 사용해보십시오. 같은 것 같습니다 : 그것은 키가 존재하지 않는 경우, 기본적으로 None
되는 한편 접근을 디폴트 값을 지정할 수 있기 때문에 접근보다는 이것을 사용하는 것이 더 좋은 연습이 dict.get(key[, default=None])
(같은 dict[key]
)가 발생합니다 a KeyError
+0
굉장해! 정확히 내가 필요한 것! –
관련 문제
- 1. Pyspark
- 2. PySpark
- 3. cogroup는 PySpark
- 4. 조치 매개 변수 No Key 일 때 기본값 추가
- 5. PySpark reduceByKey이
- 6. 는 pyspark
- 7. pyspark 정규식
- 8. pyspark : CrossValidator이
- 9. 는 PySpark
- 10. Pyspark 쓰기는
- 11. PySpark- OneHotEncoding
- 12. pyspark AttributeError : 'DataFrame'객체에 'toDF'속성이 없습니다.
- 13. Python pyspark 오류
- 14. Zeppelin PySpark : 'JavaMember'객체에 'parseDataType'속성이 없습니다.
- 15. I이 같은 dataframe이 pySpark
- 16. Pyspark SaveAsTable는 SQL
- 17. PySpark Drop Rows
- 18. 다중 데카르트 조인 pySpark
- 19. pyspark 데이터 프레임 필터링
- 20. Pyspark 핸들 Ctrl + Z?
- 21. Ananonda로 Pyspark 설정
- 22. 스케줄 pyspark 노트북
- 23. PySpark unit test approach
- 24. pyspark saveAsSequenceFile with pyspark.ml.linalg.Vectors
- 25. HBase · PySpark 테이블로드 오류
- 26. Pyspark dataframe의 SQL
- 27. Spark, Ubuntu의 Pyspark 문제
- 28. PySpark DataFrame이 - 동적으로
- 29. Pyspark 필터 빈 줄이
- 30. Pyspark 설치시 문제가 발생했습니다.
어떻게'DF'가 보이나요? –