2012-11-21 4 views
6

"멀티 코어에서 기계 학습을위한 맵 축소"는 맵 축소 모델의 이점을 얻을 수있는 10 가지 기계 학습 알고리즘을 보여줍니다. 요점은 "통계적 쿼리 모델에 맞는 알고리즘은 특정"합계 형태 "로 작성 될 수 있으며, 알고리즘은지도 양식 프로그래밍 모드를 적용 할 수있는 합계 형태로 표현 될 수 있습니다.맵 축소 모델을 적용 할 수없는 기계 학습 알고리즘

합계 형태로 표현하면지도 감축 모델을 적용 할 수 없다는 것을 의미하지는 않습니다. 맵 감속 모델로 속도를 높일 수없는 특정 기계 학습 알고리즘을 지적 할 수 있습니까?

+2

지도 알고리즘에 모든 알고리즘을 적용 할 수 있지만 효율적이라고는 할 수 없습니다. –

+0

예, map reduce를 모든 알고리즘에 적용 할 수 있지만 일부 알고리즘의 경우 성능을 향상시킬 수는 없습니다. 위에서 언급 한 논문에서는 10 개의 알고리즘을 나열하고 원본 알고리즘을 소위 "합산 형태"로 변환하는 방법을 보여주었습니다. 그런 다음지도 축소 기술을 합산 양식에 적용 할 수 있습니다. 어떤 알고리즘이 맵 축소 모델의 이점을 누릴 수 없는지 알고 싶습니다. – user1841342

답변

3

계산 기능이있는 경우 MapReduce가 작동하지 않습니다. 이 제한으로 인해 구조화 된 모델에서 작동하는 알고리즘을 표현하기가 어렵습니다.

결과적으로 대규모 문제에 직면했을 때 MapReduce 추상화 2을 사용하는 지나치게 단순한 방법을 사용하여 풍부한 구조화 모델을 포기하는 경우가 있습니다.

기계 학습 사회에서 수많은 알고리즘은 반복적으로 모두 학습과 추론, 예를 들면, 믿음의 전파, 기대 극대화, 그라데이션 하강과 깁스 샘플링 동안 매개 변수를 변환. 이러한 알고리즘은 일부 종료 조건이 2과 일치 할 때까지 매개 변수 세트를 반복하여 정제합니다.

각 반복에서 MapReduce를 호출하면 네가 여전히 계산 속도를 높일 수 있다고 생각합니다. 여기에서 요점은 더 나은 추상화 프레임 워크가 필요하여 데이터의 그래픽 구조를 채택하고 정교한 스케줄링을 표현하거나 종료를 자동으로 평가할 수 있다는 것입니다.

BTW, Graphlab은 위의 이유로 인해 동기 부여 된 대안 중 하나입니다. 2.

+0

답변 해 주셔서 감사합니다. 따라서 BP, EM, GD 및 Gibbs 샘플링은지도 축소 모델의 이점을 누릴 수 없습니다. 맞습니까? 내가 아는 바와 같이 위에 나열된 종이의 EM 및 일괄 그래디언트 디센트는지도 축소의 이점을 얻을 수 있습니다. 저자들은 GSD가 대규모 문제에 대한 GD보다 종종 더 효율적이라 할지라도 확률 적 그래디언트 강하는 그렇지 않다고 말했다. – user1841342

+0

예, EM 및 배치 GD가 map/reduce의 이점을 누릴 수 있음에 동의합니다. 제가 지적하고자하는 것은 때로는 map/reduce의 이점이 더 나은 추상화 모델만큼 중요하지는 않은지 여부입니다. 내 두 번째 마지막 단락을 참조하십시오. 알고리즘의 속도를 높일 수있는 능력이 그것이 최고의 모델이라는 것을 의미하지는 않습니다. 우리는 다른 모델을 사용하여 더 많은 속도를 낼 수 있습니다. – greeness

관련 문제