2016-12-18 5 views
0

pyspark에서 감소로 최대 값을 찾는 동안 다음과 같은 예기치 않은 결과가 발생합니다.예기치 않은 오류 감소

그것은 이상을 초래했다한다 (97088.0는 'u'2014-07-24)

agg.reduce(lambda a,b : a if a > b else b) 

내 샘플 데이터

(u'2013-10-17', 80325.0) 
(u'2014-01-01', 68521.0) 
(u'2013-11-10', 83691.0) 
(u'2013-11-14', 149289.0) 
(u'2013-11-18', 94756.0) 
(u'2014-01-30', 126171.0) 

이며, 결과는

입니다 94756

감사합니다. sPradeep

답변

1

이 같은 튜플의 두 번째 값을 비교해야한다 :

agg.reduce(lambda a,b : a if a[1] > b[1] else b) 
+0

I 사과, 도움말 @Mariusz 주셔서 감사합니다 –

1

그냥 maxkey와 사용 후기 응답을

rdd.max(key=lambda x: x[1])