2016-07-28 2 views
1

안녕하세요, Apache Spark 커뮤니티 :ML (Spark 1.6.2)의 로지스틱 회귀 최적화 루틴

저는 Spark의 설명서를 몇 주 읽었습니다. 나는 MLlib에서 Logistic Regression을 읽었으며 Spark는 두 종류의 최적화 루틴 (SGD와 L-BFGS)을 사용함을 깨달았습니다.

하지만 현재 저는 ML의 LogistReg에 대한 문서를 읽고 있습니다. 나는 어떤 종류의 최적화 루틴 devlopers가 명시 적으로 볼 수 없습니다. 이 정보를 어떻게 요청할 수 있습니까? 많은 감사와

, 케빈 이삭 Carbajal

답변

-1

의 좋은 점은 그들이 사용하는 API에 관한 것입니다.

MlLib는 RDD API에 중점을 둡니다. Spark의 핵심이지만 Sums, Avgs 및 다른 종류의 간단한 함수와 같은 일부 프로세스는 DataFrame 프로세스보다 시간이 오래 걸립니다.

ML은 데이터 프레임과 함께 작동하는 라이브러리입니다. 그 dataFrame은 합계와 같은 기본적인 함수에 대한 쿼리 최적화를 제공합니다.

이 블로그 post을 확인하면 ML이 MlLib보다 빠릅니다.

+0

답변 해 주셔서 감사합니다.하지만 그건 내 질문이 아닙니다. Logistic regression (ML)에서 개발자가 어떤 종류의 최적화 루틴을 사용하는지 알 수 있습니까? 예를 들어이 알고리즘 설명 (http://spark.apache.org/docs/1.6.2/ml-classification-regression.html#multilayer-perceptron-classifier)에서는 최적화 루틴을 구체적으로 작성합니다 ... " 우리는 최적화를위한 물류 손실 함수와 최적화 루틴으로서의 L-BFGS를 사용합니다. " –

+0

알기! 죄송합니다! 나는 그 보류를 점검 할 것이다! –